Universidad de Buenos Aires Facultad de Ciencias Sociales
Licenciatura en Ciencias de la Comunicación
Materia: Legislación Comparada Cátedra: Dr. Henoch Aguiar
Unidad No. 1
2007
Universidad de Buenos Aires – Facultad de Ciencias Sociales 2007 – 1er. Cuatrimestre
Índice Objetivos de la Materia 5
CASTELLS, Manuel; Internet, libertad y sociedad: una perspectiva analítica, Cataluña, 2001 7
Internet: ¿una arquitectura de libertad? Libre comunicación y control del poder 8 La cultura de libertad como constitutiva de Internet 13 Hackers, crackers, libertad y seguridad 16 La experiencia española de regulación de Internet 21 Encriptación 26 Referencias bibliográficas 32
ALONSO UREBA, Antonio; Telecomunicaciones y Audiovisual: Los retos regulatorios de la convergencia, Congreso de Convergencia de Medios, Mayo, 2002. 33
1. Las plataformas de acceso 34 2. Los servicios y contenidos, de banda ancha. 36 3. La estructura del mercado y los modelos de negocio 38 4. Conclusiones 39
MATTELART, A.; MATTELART, M.; “La teoría de la información”, en Historia de las teorías de la comunicación, Paidós, 1997, Cap. 3, pp. 46-47 41
2. La referencia cibernética 41 La entropía 41
VELÁZQUEZ, Mercedes; La Necesidad de regular el uso de las Nuevas Tecnologías, Buenos Aires, 2004 43
VILLELLI, Fernando; Una aproximación hacia la Televisión Digital Terrestre (TDT). Documento de Cátedra. Buenos Aires, abril de 2006. 45
Introducción 45 Especificaciones técnicas 47 Ventajas de la Televisión Digital Terrestre 51 Algunos interrogantes sobre el modelo de TDT a configurarse en Argentina 52
ESTUDIO DELPHY; “Análisis prospectivo acerca del futuro de la reforma audiovisual. Amplio consenso sobre la transición digital”, en FUNDACION TELEFONICA; Medios de Comunicación. El año de la televisión digital, Madrid, 2006, pp. 337-351. 55
Evolución histórica de la televisión 56 El marco normativo de la reforma audiovisual 63 El futuro escenario del sector audiovisual 64 Reforma de la televisión pública y creación del Consejo Audiovisual 67 El incremento de la oferta audiovisual 69 Consumo y formas de uso de la televisión 78 Conclusiones 81
Glosario de telecomunicaciones y redes 87
MATERIAL DE CÁTEDRA; Esquema para la organización de un trabajo de investigación académico, Buenos Aires, 2006. 93
Página 3 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Legislación Comparada. Objetivos de la Materia
Entender la relación existente entre las políticas de comunicación –o en su
concepción más amplia las políticas digitales- y el conjunto de la evolución social,
constituye el objetivo principal de la cátedra. Ello requiere una comprensión de la
evolución y prospectiva de la comunicación, sus tecnologías de soporte, los cambios
jurídicos que deben impulsar y acompañar la digitalización de la sociedad (desde la
factura electrónica hasta la democracia digital), el gobierno electrónico como nueva
búsqueda de transparencia y las políticas de erradicación de la brecha digital -sin las
que ya no es imaginable una democracia igualitaria-. La irrupción de la sociedad de la información, como una de las características
diferenciantes de los países que brindan mayor capacidad de desarrollo a sus
ciudadanos, está modificando la interacción de casi todas las esferas del actuar
social. Si antes era posible hablar de la comunicación como un sector relativamente
acotado, hoy las nuevas modalidades y tecnologías de la comunicación potencian la
capacidad de emisión de los ciudadanos, les otorgan mayores posibilidades de
acción, revoluciona sus maneras de aprender y enseñar. A la vez, podrían brindarles
mayor control de la gestión pública y participación política. La comunicación se
analiza así, no solo como actividad, manifestación de la libertad humana o mercancía
que circula en el mercado, sino quizás como el principal motor e impulsor del cambio
de modelo de sociedad, pasando de la era industrial a la era digital aun en ciernes. El estado de derecho en cada país puede posibilitar y preparar el camino
hacia una digitalización y apertura de las relaciones sociales, políticas y económicas;
o bien, por su rigidez y falta de adaptación, transformarse en el mayor obstáculo
frente al cambio. La cátedra busca transmitir una comprensión integral de las
políticas a aplicar y de las normas o principios jurídicos a implementar para que la
Argentina pueda generar un salto cualitativo hacia un nuevo modelo de comunicación
que mejor pueda conducir al desarrollo argentino. También, se pretende que las investigaciones y trabajos desarrollados en su
seno signifiquen un aporte de investigación valioso en el ámbito iberoamericano.
Para ello, se incorporan y difunden los mejores trabajos realizados por los alumnos,
a través de la página Web y en contacto con las diferentes autoridades
Página 5 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
gubernamentales de los países latinoamericanos. Esta es la manera de transformar
un espacio de estudio en una colaboración efectiva para la región, manifestando así
el compromiso universitario hacia la búsqueda de un cambio efectivo.
Página 6 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
CASTELLS, Manuel; Internet, libertad y sociedad: una perspectiva analítica, Cataluña, 2001
Internet, libertad y sociedad: una perspectiva analítica
Manuel Castells 1
Como toda tecnología, Internet es una creación cultural: refleja los principios
y valores de sus inventores, que también fueron sus primeros usuarios y
experimentadores. Es más, al ser una tecnología de comunicación interactiva con
fuerte capacidad de retroacción, los usos de Internet se plasman en su desarrollo
como red y en el tipo de aplicaciones tecnológicas que van surgiendo. Los valores
libertarios de quienes crearon y desarrollaron Internet, a saber, los investigadores
académicos informáticos, los hackers, las redes comunitarias contraculturales y los
emprendedores de la nueva economía, determinaron una arquitectura abierta y de
difícil control. Al mismo tiempo, cuando la sociedad se dio cuenta de la extraordinaria
capacidad que representa Internet, los valores encarnados en la red se difundieron
en el conjunto de la vida social, particularmente entre las jóvenes generaciones.
Internet y libertad se hicieron para mucha gente sinónimos en todo el mundo.
Frente a tal transformación tecnológica y cultural, los detentores del poder de
controlar la información a lo largo de la historia, es decir, los estados y las iglesias,
reaccionaron con preocupación y, en los estados no democráticos, con hostilidad,
tratando de restablecer el control administrativo de la expresión y la comunicación.
Pero la ejecución del proyecto estatista sobre Internet se encuentra con obstáculos
considerables. En los países democráticos, Internet se consolida como instrumento
esencial de expresión, información y comunicación horizontal entre los ciudadanos y
recibe la protección constitucional y judicial de las libertades. En todos los países,
menos en las teocracias, la importancia económica y tecnológica de Internet excluye
que se pueda ignorar o relegar su amplio uso en la sociedad. Más aún, la ideología
del progreso mediante la tecnología hace de la promoción de Internet un valor
legitimador para gobiernos que fundan su estrategia en el desarrollo económico
dentro del marco de la globalización. De ahí el complicado encaje de bolillos político
entre la libertad y el control por parte de los Estados.
Por su parte, los internautas suelen afirmar sus derechos individuales fuera
1 Profesor sénior del Internet Interdisciplinary Institute (IN3) de la UOC
Página 7 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
de contexto, situándose como vanguardia tecnológicamente liberada de una sociedad
informáticamente iletrada. Más aún, los emprendedores llegan a empresarios
mediante la comercialización acelerada de Internet, un proceso en el que
frecuentemente traicionan sus principios libertarios, por ejemplo, mediante el
sacrificio de la privacidad de sus clientes o la colaboración técnica e informativa con
los dispositivos de control y vigilancia de la Administración.
Los ciudadanos, en general, tienden a hacer un uso instrumental y poco
ideológico de Internet: lo utilizan para lo que les sirve y consideran la libertad en
Internet como un tema fundamental cuando hace tiempo que se han acostumbrado
al control político y comercial de su principal fuente de información: la televisión.
Pero dicha actitud puede cambiar conforme vaya asentándose en la sociedad la
primera generación que está creciendo con Internet. Conforme el uso de Internet
vaya generalizando la información y el conocimiento sobre la importancia social
decisiva del control sobre Internet, puede ser que la batalla por la libertad en la red,
incluida la libertad económica de acceso a la red, desborde los confines de la actual
elite ilustrada.
Internet: ¿una arquitectura de libertad? Libre comunicación y control del poder
¿Es controlable Internet? Éste es un debate sempiterno en el que se mezclan
los sueños personales, los grados de (des)conocimiento tecnológico, la rutina del
poder y la rapidez del cambio de los parámetros de referencia. Tratemos de
clarificarlo.
En principio, el diseño de la red, a partir de una estructura en estratos
(layers), con capacidad distribuida de comunicación para cada nodo y transmisión
por packet switching, operada por protocolos TCP/IP, según múltiples canales de
comunicación alternativos, proporciona una gran libertad a los flujos de información
que circulan por Internet (www.isoc.org).
En sentido técnico, es cierta la célebre afirmación de John Gilmore de que los
flujos en Internet interpretan la censura (o interceptación) como un fallo técnico y
encuentran automáticamente una ruta distinta de transmisión del mensaje. Al ser
una red global con poder de procesamiento de información y comunicación
multinodal, Internet no distingue fronteras y establece comunicación irrestricta entre
todos sus nodos. La única censura directa posible de Internet es no estar en la red. Y
esto es cada vez más costoso para los gobiernos, las sociedades, las empresas y los
individuos. No se puede estar "un poquito" en Internet. Existe, sí, la posibilidad de
Página 8 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
emitir mensajes unidireccionales propagados en Internet, sin reciprocidad de
comunicación, en la medida en que los servidores de un país (por ejemplo,
Afganistán) permanezcan desconectados de la red interna. Pero cualquier conexión
en red de ordenadores con protocolos Internet permite la comunicación global con
cualquier punto de la red.
Sin embargo, si la red es global, el acceso es local, a través de un servidor. Y
es en este punto de contacto entre cada ordenador y la red global en donde se
produce el control más directo. Se puede, y se hace en todos los países, negar
acceso al servidor, cerrar el servidor o controlar quién comunica qué y a quién
mediante una vigilancia electrónica de los mensajes que circulan por el servidor.
Pero los censores no lo tienen tan fácil como parece. Primero, porque en algunos
países hay una protección legal considerable de la libertad de expresión y
comunicación en Internet. Tal es el caso, en particular, de Estados Unidos, en donde,
en 1996 y en 2000, los tribunales estadounidenses, con sentencias corroboradas por
el Supremo, declararon inconstitucionales dos intentos legislativos de la
Administración Clinton para establecer la censura de Internet, con el pretexto de
controlar la pornografía infantil. En una sentencia célebre, de 1996, el Tribunal
Federal del Distrito Este de Pensilvania reconoció que Internet es un caos, pero
afirmó, textualmente: "La ausencia de regulación gubernativa de los contenidos de
Internet ha producido, incuestionablemente, una especie de caos, pero lo que ha
hecho de Internet un éxito es el caos que representa. La fuerza de Internet es ese
caos. De la misma forma que la fuerza de Internet es el caos, la fuerza de nuestra
libertad depende del caos y de la cacofonía de la expresión sin trabas que protege la
Primera Enmienda. Por estas razones, sin dudarlo, considero que la Ley de Decencia
en las Comunicaciones es prima facie inconstitucional." Así se protegió una libertad
amenazada por una Administración que, pese a sus declaraciones en favor de
Internet, siempre desconfió, como la mayoría de los gobiernos, de la libre expresión
y autoorganización de los ciudadanos (www.eff.org).
Así pues, en la medida en que la censura de Internet es difícil en Estados
Unidos y que, en 2001, la mayoría de flujos globales de Internet utilizan un
backbone norteamericano (y muchos otros podrían utilizarlo en caso de necesidad),
la protección que Estados Unidos hace de Internet crea un espacio institucional de
libertad para la gran mayoría de circuitos de transmisión por Internet.
Quiero señalar, incidentalmente, que esto no admite la interpretación de un
canto a Estados Unidos como tierra de libertad: lo es en algunos aspectos y en otros,
Página 9 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
no. Pero, en lo que concierne a la libre expresión en Internet, sí representa, por su
tradición de liberalismo constitucional, un elemento decisivo en la capacidad de
comunicación autónoma mediante Internet. Si no se pueden censurar las
comunicaciones en Estados Unidos, siempre hay formas de conectar a cualquier nodo
en la red, pasando por Estados Unidos, una vez que el mensaje ha salido del
servidor. Los censores tienen, sin embargo, el recurso de desconectar el servidor, de
penalizar a sus administradores o de identificar el origen o al receptor de un mensaje
no permitido y reprimirlo individualmente. Eso es lo que hacen los chinos, los
malasios, los singapureanos y tantos otros, asiduamente, y eso es lo que pretende la
legislación que se propone en algunos países europeos, España entre otros.
Ahora bien, la represión no es lo mismo que la censura. El mensaje se
comunica, las consecuencias llegan luego. De modo que, más que bloquear Internet,
lo que se puede hacer y se hace es reprimir a quienes hacen un uso indebido según
los criterios de los poderes al uso. Por eso tienen razón tanto los que declaran
Internet incontrolable como aquellos que lo consideran el más sofisticado
instrumento de control, en último caso bajo la égida de los poderes constituidos.
Técnicamente, Internet es una arquitectura de libertad. Socialmente, sus usuarios
pueden ser reprimidos y vigilados mediante Internet. Pero, para ello, los censores
tienen que identificar a los transgresores, lo cual implica la definición de la
transgresión y la existencia de técnicas de vigilancia eficaces.
La definición de la transgresión depende, naturalmente, de los sistemas
legales y políticos de cada jurisdicción. Y aquí empiezan los problemas. Lo que es
subversivo en Singapur no necesariamente lo es en España. Y cuando, en el año
2000, en Estados Unidos, un Web site organizó la venta legal de votos de personas
ausentes que vendían su voto al mejor postor de los candidatos políticos, motivando
una persecución legal, el Web site se trasladó a Alemania, donde un delito electoral
americano no caía bajo la represión policial. De modo que la geometría política
variable de Internet permite operar desde distintos servidores hacia distintas redes.
Como no hay una legislación global, pero sí hay una red global de comunicación, la
capacidad de control sistemática y preventiva se diluye en la práctica.
Sí, en cambio, se puede proceder, desde cada centro de poder, a la
identificación y subsiguiente represión de quienes sean los transgresores de las
normas dictadas por dicho poder. Para ello, se dispone ahora de tecnologías de
control que, en su mayor parte, fueron creadas por los empresarios informáticos que
hacen negocio de cualquier cosa sin importarles demasiado los principios libertarios
Página 10 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
que afirman en su vida personal. Dichas tecnologías son fundamentalmente de tres
tipos: de identificación, de vigilancia y de investigación (www.epic.org ).
Las principales tecnologías de identificación son las contraseñas, los cookies y
los procedimientos de autenticidad. Las contraseñas son los símbolos convenidos que
usted utilizó para entrar en esta red. Los cookies son marcadores digitales que los
Web sites así equipados insertan automáticamente en los discos duros de los
ordenadores que los conectan. Una vez que un cookie entra en un ordenador, todas
las comunicaciones de dicho ordenador en la red son automáticamente registradas
en el Web site originario del cookie. Los procedimientos de autenticidad son firmas
digitales que permiten a los ordenadores verificar el origen y características de las
comunicaciones recibidas.
Generalmente, utilizan tecnología de encriptación. Trabajan por niveles, de
modo que los servidores identifican a usuarios individuales y las redes de conexión
identifican a los servidores.
Las tecnologías de vigilancia permiten interceptar mensajes, insertar
marcadores gracias a los cuales se puede seguir la comunicación de un ordenador o
un mensaje marcado a través de la red; también consisten en la escucha continua de
la actividad de comunicación de un ordenador o de la información almacenada en
dicho ordenador. El famoso programa Carnivore del FBI permite analizar mediante
palabras clave enormes masas de información de las comunicaciones telefónicas o
Internet, buscando y reconstruyendo en su totalidad aquellos mensajes que parezcan
sospechosos (aunque algunas detenciones sobre esas bases resultaron bastante
chuscas, arrestando a buenas madres de familia que comentaban electrónicamente
el peligro del consumo de drogas en la escuela de sus hijos). Las tecnologías de
vigilancia permiten identificar el servidor originario de un determinado mensaje. A
partir de ahí, por colaboración o coacción, los mantenedores de los servidores
pueden comunicar al detentor del poder la dirección electrónica de donde provino
cualquier mensaje.
Las tecnologías de investigación se organizan sobre bases de datos obtenidos
del almacenamiento de la información resultante de las tecnologías de vigilancia. A
partir de esas bases de datos se pueden construir perfiles agregados de usuarios o
conjuntos de características personalizadas de un usuario determinado. Por ejemplo,
mediante el número de tarjeta de crédito, asociado a un número de carné de
identidad y a la utilización de un determinado ordenador, se puede reconstruir
fácilmente el conjunto de todos los movimientos que realiza una persona que dejen
Página 11 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
registro electrónico. Como eso es algo que hacemos todos los días (teléfono, correo
electrónico, tarjetas de crédito), parece evidente que ya no hay privacidad desde el
punto de vista de la comunicación electrónica.
O sea, la combinación de las tecnologías de identificación, de vigilancia y de
investigación configuran un sistema en que quien tenga el poder legal o fáctico de
acceso a esa base de datos puede conocer lo esencial de lo que cada persona hace
en la red y fuera de ella. Desde ese punto de vista, la red no se controla, pero sus
usuarios están expuestos a un control potencial de todos sus actos más que nunca
en la historia. Así pues, un poder político, judicial, policial o comercial (defensores de
derechos de propiedad) que quiera actuar contra un internauta determinado puede
interceptar sus mensajes, detectar sus movimientos y, si están en contradicción con
sus normas, proceder a la represión del internauta, del prestador de servicios, o de
los dos.
Obviamente, el control no proviene tan sólo del gobierno o de la policía.
Las empresas vigilan rutinariamente el correo electrónico de sus empleados y
las universidades, el de sus estudiantes, porque la protección de la privacidad no se
extiende al mundo del trabajo, bajo el control de la organización corporativa.
Pero ni Internet es una red de libertad, en un mundo en que la tecnología
puede servir para el control de nuestras vidas mediante su registro electrónico, ni la
tendencia al control ubicuo es irreversible. En sociedad, todo proceso está hecho de
tendencias y contratendencias, y la oposición entre libertad y control continúa sin fin,
a través de nuevos medios tecnológicos y nuevas formas institucionales.
A las tecnologías de control y vigilancia se contraponen tecnologías de
libertad. Por un lado, el movimiento para el software de fuente abierta permite la
difusión de los códigos sobre los que se basa el procesamiento informático en las
redes. Por consiguiente, a partir de un cierto nivel de conocimiento técnico, frecuente
entre los centros de apoyo a quienes defienden la libertad en la red, se puede
intervenir en los sistemas de vigilancia, se pueden transformar los códigos y se
pueden proteger los propios programas. Naturalmente, si se acepta sin rechistar el
mundo de Microsoft, se acabó cualquier posibilidad de privacidad y, por tanto, de
libertad en la red. Entre otras cosas, porque cada programa Windows contiene un
identificador individual que acompaña a través de la red cualquier documento
generado desde ese programa. Pero la creciente capacidad de los usuarios para
modificar sus propios programas crea una situación más compleja en la que el
controlado puede pasar a ser controlador de los sistemas que lo vigilan.
Página 12 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
La otra tecnología fundamental en la reconstrucción de la libertad en la red es
la encriptación (www.kriptopolis.com).
Bien es cierto que, como toda tecnología, su relación con la libertad es
ambigua, como señala Lessig (1999; 2000 en castellano), porque, por un lado,
protege la privacidad del mensaje pero, por otro, permite los procedimientos de
autentificación que verifican la identidad del mensajero.
Sin embargo, en lo esencial, las tecnologías de encriptación permiten, cuando
funcionan, mantener el anonimato del mensaje y borrar las huellas del camino
seguido en la red, haciendo difícil, pues, la interceptación del mensaje y la
identificación del mensajero. Por eso, la batalla sobre la encriptación es, desde el
punto de vista técnico, una batalla fundamental por la libertad en Internet.
Pero no todo es tecnología en la defensa de la libertad. En realidad, lo más
importante no es la tecnología sino la capacidad de los ciudadanos para afirmar su
derecho a la libre expresión y a la privacidad de la comunicación. Si las leyes de
control y vigilancia sobre Internet y mediante Internet son aprobadas por una clase
política que sabe que el control de la información ha sido siempre, en la historia, la
base del poder, las barricadas de la libertad se construirán tecnológicamente. Pero es
aún más importante que las instituciones de la sociedad reconozcan y protejan dicha
libertad. Por eso, movilizaciones de opinión como la de Electronic Frontier
Foundation, en Estados Unidos, y tantas otras redes en Europa y en el mundo han
sido elementos influyentes a la hora de frenar las tendencias represivas que se
albergan en las burocracias gubernamentales y en los sectores ideológicamente
conservadores, asustados del potencial liberador de Internet. En último término, es
en la conciencia de los ciudadanos y en su capacidad de influencia sobre las
instituciones de la sociedad, a través de los medios de comunicación y del propio
Internet, en donde reside el fiel de la balanza entre la red en libertad y la libertad en
la red.
La cultura de libertad como constitutiva de Internet Las tecnologías son producidas por su historia y por el uso que se hace de
ellas. Internet fue diseñada como una tecnología abierta, de libre uso, con la
intención deliberada de favorecer la libre comunicación global. Y cuando los
individuos y comunidades que buscan valores alternativos en la sociedad se
apropiaron de esa tecnología, ésta amplificó aún más su carácter libertario, de
sistema de comunicación interactivo, abierto, global y en tiempo escogido
(www.isoc.org/internet-history/brief.html).
Página 13 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
En principio, esta afirmación podría sorprender, puesto que el antepasado
más directo de Internet, Arpanet, fue creado en 1969 (y presentado al mundo en
1972) en ARPA , la oficina de proyectos avanzados de investigación del
Departamento de Defensa del gobierno de Estados Unidos. Y, sin embargo, no sólo el
diseño de sus creadores se inspiró en principios de apertura de la red, sino que los
principales nodos de Arpanet se localizaron en universidades, con acceso posible a
ellos por parte de profesores y estudiantes de doctorado, eliminando toda posibilidad
de control militar estricto. Ni siquiera es cierta la historia, a menudo contada, de que
Arpanet se creó para salvaguardar las comunicaciones norteamericanas de un ataque
nuclear sobre sus centros de mando y coordinación. Es cierto que hubo un proyecto
de Paul Baran , en la Rand Corporation, propuesto a la Fuerza Aérea, para construir
un sistema de comunicación flexible y descentralizado basado en una nueva
tecnología de transmisión, packet switching. Pero, si bien dicha tecnología fue
esencial en el desarrollo de Internet, el proyecto de Baran fue rechazado por el
Departamento de Defensa e Internet no encontró aplicaciones militares hasta treinta
años más tarde, cuando las tropas de elite estadounidenses empezaron a
organizarse en red aprovechando la facilidad de comunicación interactiva ubicua.
La razón oficial para el desarrollo de Arpanet fue facilitar la comunicación
entre los distintos grupos universitarios de informática financiados por el
Departamento de Defensa y, en especial, permitir que compartieran tiempo de
ordenador en las potentes máquinas que existían tan sólo en algunos centros. Pero,
de hecho, muy rápidamente el aumento de capacidad y velocidad de los ordenadores
hizo que sobrara tiempo de computación, con lo que la utilidad directa de Arpanet no
era evidente. Lo que de verdad ocurrió fue que un grupo de investigadores
informáticos, generosamente financiados por el Departamento de Defensa,
encontraron un instrumento perfecto para llevar a cabo su investigación en red, y,
pronto, se entusiasmaron con la perspectiva de desarrollar un sistema de
comunicación entre ordenadores, que se concretó en los protocolos TCP/IP
desarrollados por Cerf y Kahn en 1973, y luego por Cerf, Kahn y Postel en 1978.
Desde el principio, los diseñadores de Internet, todos ellos procedentes del
mundo académico, aunque algunos de ellos trabajaron en el entorno del
Departamento de Defensa y consultoras asociadas, buscaron deliberadamente la
construcción de una red informática abierta y sin cortapisas, con protocolos
comunicables y una estructura que permitiera añadir nodos sin cambiar la
configuración básica del sistema. Fue una cultura de libertad inspirada en los
Página 14 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
principios de la investigación académica y en la práctica de compartir los resultados
de la investigación con los colegas, de forma que el juicio de la comunidad
informática académica sobre la contribución de cada uno era la recompensa más
importante al trabajo obtenido.
¿Por qué el Departamento de Defensa les dejó tal libertad? En realidad,
porque quien supervisó el desarrollo de Internet fue una agencia de promoción de
investigación, ARPA, formada en buena parte por científicos e ingenieros y que siguió
la estrategia innovadora y atrevida de buscar la supremacía tecnológica de Estados
Unidos (tras el susto recibido por el Sputnik soviético) a partir de la excelencia de
sus universidades. Pero cualquier académico que se precie no acepta limitaciones a
su libertad de investigación y comunicación de resultados. Por tanto, para obtener la
mejor investigación en informática y telecomunicaciones (que ARPA vio enseguida
como tecnologías decisivas), los fondos fueron a parar a los mejores grupos (MIT,
Stanford, Berkeley, Carnegie Mellon, UCLA, USC, SRI, BBN, UC Santa Barbara,
Utah, etc.) sin restricciones burocráticas. De hecho, la estrategia resultó, porque no
solamente se desarrolló Internet, sino que, merced al salto gigantesco de la
investigación universitaria en tecnologías de información y comunicación, Estados
Unidos obtuvo una supremacía tecnológica que también llegó al terreno militar, que
puso a la defensiva en los años ochenta a la Unión Soviética y, en último término,
llevó a su malograda perestroika y posterior desintegración, como hemos
demostrado en nuestro libro (Castells y Kiselyova, 1995).
Una vez que las tecnologías de Internet se desarrollaron de forma abierta a
través de las universidades, fueron conectando con otros medios sociales y otras
actitudes culturales a lo largo de los años setenta y ochenta. Por un lado, los hackers
vieron en Internet un medio privilegiado de comunicación e innovación y aplicaron su
enorme potencial de creatividad y capacidad tecnológica a perfeccionar el software
de Internet, utilizando el poder de la colaboración abierta en red para incrementar su
capacidad tecnológica. Por otro lado, los movimientos contraculturales y alternativos
tomaron Internet como forma de organización de comunidades virtuales y proyectos
culturales autónomos, a partir del desarrollo de los PC, que puso en manos de la
gente el poder de procesamiento informático y de comunicación en red (Rheingold,
1993; 2000). Con cada nueva oleada de usuarios, llegó una plétora de nuevas
aplicaciones que los programadores autónomos inventaron a partir de su práctica;
por ejemplo, el World Wide Web, que programó Tim Berners-Lee , en el CERN, en
1990.
Página 15 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Cada nueva aplicación se publicaba en la red, con lo que el conocimiento
colectivo se fue profundizando y la capacidad tecnológica de la red ampliando y
haciéndose más fácil de usar. Así, se generalizó el uso de Internet por círculos
concéntricos a partir de los hackers y los estudiantes de las universidades más
avanzadas, hasta llegar a los más de 400 millones de usuarios en la actualidad
(había 16 millones en 1995, primer año del World Wide Web).
Una vez que Internet tuvo pleno desarrollo tecnológico y una base de
usuarios suficientemente amplia, una nueva generación de empresarios lo utilizó
como negocio y como nueva forma de hacer negocio, llevando su uso a todos los
ámbitos de la economía y, por tanto, de la sociedad. Si la investigación académica
inventó Internet, la empresa fue la que lo difundió en la sociedad, tres décadas más
tarde. Pero, entre los dos procesos tuvo lugar la apropiación, transformación y
desarrollo de Internet por dos culturas de libertad que fueron decisivas en su
tecnología y en sus aplicaciones: la cultura hacker y las comunidades
contraculturales, que plasmaron su autonomía en la tecnología, estructura y usos de
la red.
Hackers, crackers, libertad y seguridad Los hackers y su cultura son una de las fuentes esenciales de la invención y
continuo desarrollo de Internet. Los hackers no son lo que los medios de
comunicación o los gobiernos dicen que son. Son, simplemente, personas con
conocimientos técnicos informáticos cuya pasión es inventar programas y desarrollar
formas nuevas de procesamiento de información y comunicación electrónica (Levy,
1984; Raymond, 1999). Para ellos, el valor supremo es la innovación tecnológica
informática. Y, por tanto, necesitan también libertad. Libertad de acceso a los
códigos fuente, libertad de acceso a la red, libertad de comunicación con otros
hackers, espíritu de colaboración y de generosidad (poner a disposición de la
comunidad de hackers todo lo que se sabe, y, en reciprocidad, recibir el mismo
tratamiento de cualquier colega). Algunos hackers son políticos y luchan contra el
control de los gobiernos y de las corporaciones sobre la red, pero la mayoría no lo
son, lo importante para ellos es la creación tecnológica. Se movilizan,
fundamentalmente, para que no haya cortapisas a dicha creación. Los hackers no
son comerciales, pero no tienen nada contra la comercialización de sus
conocimientos, con tal de que las redes de colaboración de la creación tecnológica
sigan siendo abiertas, cooperativas y basadas en la reciprocidad.
La cultura hacker se organiza en redes de colaboración en Internet, aunque
Página 16 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
de vez en cuando hay algunos encuentros presenciales. Distintas líneas tecnológicas
se agrupan en torno a grupos cooperativos, en los cuales se establece una jerarquía
tecnológica según quiénes son los creadores de cada programa original, sus
mantenedores y sus contribuidores. La comunidad suele reconocer la autoridad de
los primeros innovadores, como es el caso de Linus Torvalds en la comunidad Linux.
Pero sólo se reconoce la autoridad de quien la ejerce con prudencia y no la utiliza
para su beneficio personal.
El movimiento hacker más político (en términos de política de libertad
tecnológica) es el creado por Richard Stallman , un programador de MIT , que
constituyó en los años ochenta la Free Software Foundation para defender la
libertad de acceso a los códigos de UNIX cuando ATT trató de imponer sus derechos
de propiedad sobre UNIX, el sistema operativo más avanzado y más compatible de
su tiempo, y sobre el que se ha fundado en buena parte la comunicación de los
ordenadores en la red. Stallman , que aprendió el valor de la libertad en el
movimiento de libre expresión en sus tiempos de estudiante en Berkeley, sustituyó
el copy right por el copy left. Es decir, que cualquier programa publicado en la red
por su Fundación podía ser utilizado y modificado bajo licencia de la Fundación bajo
una condición: difundir en código abierto las modificaciones que se fueran
efectuando. Sobre esa base, desarrolló un nuevo sistema operativo, GNU , que sin
ser Unix, podía utilizarse como UNIX. En 1991, un estudiante de 21 años de la
Universidad de Helsinki, Linus Torvalds , diseñó su propio UNIX kernel para su PC
386 sobre la base de Fundación . Y, siguiendo las reglas del juego, publicó la fuente
de su código en la red, solicitando ayuda para perfeccionarlo. Cientos de
programadores espontáneos se pusieron a la tarea, desarrollando así el sistema
operativo Linux (que recibió ese nombre del administrador del sistema en la
Universidad de Helsinki , puesto que el nombre que Torvalds le había dado era el
de Freix), considerado hoy en día el más avanzado del mundo, sobre todo para
ordenadores en Internet, y la única alternativa actual a los programas de Microsoft.
Linux cuenta en la actualidad con más de 30 millones de usuarios y está siendo
promocionado por los gobiernos de Francia, de Brasil, de la India, de Chile, de China,
entre otros, así como por grandes empresas como IBM . Siempre en código abierto
y sin derechos de propiedad sobre él.
El filósofo finlandés Pekka Himanen ( www.hackerethic.org) argumenta
convincentemente que la cultura hacker es la matriz cultural de la era de la
información, tal y como la ética protestante fue el sistema de valores que coadyuvó
Página 17 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
decisivamente al desarrollo del capitalismo, según el análisis clásico de Max Weber.
Naturalmente, la mayoría de los capitalistas no era protestante ni la mayoría de los
actores de la sociedad de la información es hacker. Pero lo que esto significa es lo
siguiente: una gran transformación tecnoeconómica necesita un caldo de cultivo en
un sistema de valores nuevo que motive a la gente para hacer lo que hace. En el
caso del capitalismo, fue la ética del trabajo y de la acumulación de capital en la
empresa como forma de salvación personal (lo cual, desde luego, no impidió, sino
que justificó, la explotación de los trabajadores).
En la era de la información, la matriz de todo desarrollo (tecnológico,
económico, social) está en la innovación, en el valor supremo de la innovación que,
potenciada por la revolución tecnológica informacional, incrementa
exponencialmente la capacidad de generación de riqueza y de acumulación de poder.
Pero innovar no es un valor obvio. Debe estar asociado a una satisfacción personal,
del tipo que sea, ligado al acto de la innovación. Eso es la cultura hacker, según
Himanen. El placer de crear por crear. Y eso mueve el mundo, sobre todo el mundo
en que la creación cultural, tecnológica, científica y también empresarial, en su
aspecto no crematístico, se convierte en fuerza productiva directa por la nueva
relación tecnológica entre conocimiento y producción de bienes y servicios. Se podría
argumentar que, así definido, hay hackers en todas partes y no sólo en la
informática. Y ése es, en realidad, el argumento de Himanen: que todo el mundo
puede ser hacker en lo que hace y que cualquiera que esté movido por la pasión de
crear en su actividad propia está motivado por una fuerza superior a la de la
ganancia económica o la satisfacción de sus instintos. Lo que ocurre es que la
innovación tecnológica informática tiene el piñón directo sobre la rueda del cambio
en la era de la información, de ahí que la cultura hacker se manifieste de forma
particularmente espectacular en las tecnologías de información y en Internet.
En realidad, los hackers han sido fundamentales en el desarrollo de Internet.
Fueron hackers académicos quienes diseñaron los protocolos de Internet. Un hacker,
Ralph Tomlinson , trabajador de la empresa BBN, inventó el correo electrónico en
1970, para uso de los primeros internautas, sin comercialización alguna. Hackers de
los Bell Laboratories y de la Universidad de Berkeley desarrollaron UNIX. Hackers
estudiantes inventaron el módem. Las redes de comunicación electrónica inventaron
los tablones de anuncio, los chats, las listas electrónicas y todas las aplicaciones que
hoy estructuran Internet. Y Tim Berners-Lee y Roger Cailliau diseñaron el
browser/editor World Wide Web, por la pasión de programar, a escondidas de sus
Página 18 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
jefes en el CERN de Ginebra, en 1990, y lo difundieron en la red sin derechos de
propiedad a partir de 1991. También el browser que popularizó el uso del World Wide
Web, el Mosaic , fue diseñado en la Universidad de Illinois por otros dos hackers
(Marc Andreesen y Eric Bina ) en 1992. Y la tradición continúa: en estos momentos,
dos tercios de los servidores de Web utilizan Apache , un programa servidor
diseñado y mantenido en software abierto y sin derechos de propiedad por una red
cooperativa.
En una palabra, los hackers informáticos han creado la base tecnológica de
Internet, el medio de comunicación que constituye la infraestructura de la sociedad
de la información. Y lo han hecho para su propio placer, o, si se quiere, por el puro
goce de crear y compartir la creación y la competición de la creación. Ciertamente,
unos pocos de entre ellos también se hicieron ricos como empresarios, pero
mediante aplicaciones de sus innovaciones, no mediante la apropiación de la
innovación cooperativa en su propio beneficio (aunque el caso de Andreesen es
menos claro, en este sentido). Otros obtuvieron buenos puestos de trabajo, pero sin
ceder en sus principios como hackers. También hubo quien se hizo famoso, como
Linus Torvalds, pero su fama vino de su reconocimiento de la comunidad de hackers,
que implica el respeto a sus reglas de libertad y cooperación. Los más permanecieron
anónimos para el mundo y llevan y llevaron una vida modesta. Pero obtuvieron,
mediante su práctica de innovación cooperativa, la más alta recompensa a la que
aspira un hacker, el reconocimiento como tal por parte de la única autoridad que
puede otorgar dicha distinción: la comunidad global de hackers, fuente esencial de
innovación en la era de la información.
En los márgenes de la comunidad hacker se sitúan los crackers. Los crackers,
temidos y criticados por la mayoría de hackers, por el desprestigio que les supone
ante la opinión pública y las empresas, son aquellos que utilizan sus conocimientos
técnicos para perturbar procesos informáticos (Haffner y Markoff, 1995).
Hay muy distintos tipos de crackers, pero no considero entre ellos a aquellos
que penetran en ordenadores o redes de forma ilegal para robar: éstos son ladrones
de guante blanco, una vieja tradición criminal. Muchos crackers pertenecen a la
categoría de script kiddies, es decir, bromistas de mal gusto, muchos de ellos
adolescentes, que penetran sin autorización en sistemas o crean y difunden virus
informáticos para sentir su poder, para medirse con los otros, para desafiar al mundo
de los adultos y para chulear con sus amigos o con sus referentes en la red. La
mayoría de ellos tiene conocimientos técnicos limitados y no crea ninguna
Página 19 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
innovación, por lo que son, en realidad, marginales al mundo hacker. Otros crackers,
más sofisticados, penetran en sistemas informáticos para desafiar personalmente a
los poderes establecidos, por ejemplo, a Microsoft o las grandes empresas. Y algunos
utilizan su capacidad tecnológica como forma de protesta social o política, como
expresión de su crítica al orden establecido. Ellos son quienes se introducen en
sistemas militares, administraciones públicas, bancos o empresas para reprocharles
alguna fechoría. Entre los ataques de crackers con motivación política hay que situar
los practicados por movimientos políticos o por servicios de inteligencia de los
gobiernos, como la guerra informática desarrollada entre los crackers islámicos e
israelíes o entre los pro-chechenos y los servicios rusos.
En suma, en la medida en que los sistemas informáticos y las comunicaciones
por Internet se han convertido en el sistema nervioso de nuestras sociedades, la
interferencia con su operación a partir de una capacidad técnica de actuación en la
red es un arma cada vez más poderosa, que puede ser utilizada por distintos actores
y con distintos fines. Éstas son las acciones de los crackers, que deben ser
absolutamente deslindados de los hackers, a cuya constelación pertenecen, pero con
quienes no se confunden.
La vulnerabilidad de los sistemas informáticos plantea una contradicción
creciente entre seguridad y libertad en la red. Por un lado, es obvio que el
funcionamiento de la sociedad y sus instituciones y la privacidad de las personas no
pueden dejarse al albur de cualquier acción individual o de la intromisión de quienes
tienen el poder burocrático o económico de llevarla a cabo. Por otro lado, como
ocurre en la sociedad en general, con el pretexto de proteger la información en la red
se renueva el viejo reflejo de control sobre la libre comunicación.
El debate sobre seguridad y libertad se estructura en torno a dos polos: por
un lado, la regulación político-jurídica de la red; por otro, la autoprotección
tecnológica de los sistemas individuales. Naturalmente, hay fórmulas intermedias,
pero, en general, dichas fórmulas mixtas tienden a gravitar hacia la regulación
institucional de la comunicación electrónica. Quienes defienden la capacidad de
autorregulación de la red argumentan que existen tecnologías de protección que son
poco vulnerables, sobre todo cuando se combinan los fire walls (o filtros de acceso)
de los sistemas informáticos con las tecnologías de encriptación, que hacen muy
difíciles de interceptar los códigos de acceso y el contenido de la comunicación. Es
así como están protegidos los ordenadores del Pentágono, de los bancos suizos o de
Scotland Yard. La mayor parte de las instituciones de poder y de las grandes
Página 20 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
empresas tiene sistemas de seguridad a prueba de cualquier intento de penetración
que no cuente con capacidad tecnológica e informática similar. Cierto que hay una
carrera incesante entre sistemas de ataque informático y de protección de éstos,
pero por esto mismo, el corazón de dichos sistemas es poco vulnerable para el
común de los crackers.
Ahora bien, al estar los sistemas informáticos conectados en red, la seguridad
de una red depende en último término de la seguridad de su eslabón más débil, de
forma que la capacidad de penetración por un nodo secundario puede permitir un
ataque a sus centros más protegidos. Esto fue lo que ocurrió en el año 2000 cuando
los crackers se introdujeron en el sistema de Microsoft y obtuvieron códigos
confidenciales, a partir de la penetración en el sistema personal de un colaborador de
Microsoft que tenía acceso a la red central de la empresa. Es manifiestamente
imposible proteger el conjunto de la red con sistemas de fire walls y encriptación
automática. Por ello, sólo la difusión de la capacidad de encriptación y de
autoprotección en los sistemas individuales podría aumentar la seguridad del sistema
en su conjunto. En otras palabras, un sistema informático con capacidad de
computación distribuida en toda la red necesita una protección igualmente
distribuida y adaptada por cada usuario a su propio sistema. Pero eso equivale a
poner en manos de los usuarios el poder de encriptación y autoprotección
informática. Algo que rechazan los poderes políticos con el pretexto de la posible
utilización de esta capacidad por los criminales (en realidad, las grandes
organizaciones criminales tienen la misma capacidad tecnológica y de encriptación
que los grandes bancos). En último término, la negativa de las administraciones a
permitir la capacidad de encriptación y de difusión de tecnología de seguridad entre
los ciudadanos conlleva la creciente vulnerabilidad de la red en su conjunto, salvo
algunos sistemas absolutamente aislados y, en última instancia, desconectados de la
red.
De ahí que gobiernos y empresas busquen la seguridad mediante la
regulación y la capacidad represiva de las instituciones más que a través de la
autoprotección tecnológica de los ciudadanos. Es así como se reproduce en el mundo
de Internet la vieja tensión entre seguridad y libertad.
La experiencia española de regulación de Internet Los gobiernos de la mayoría de los países han acogido Internet con una
actitud esquizofrénica. Por un lado, como icono de modernidad e instrumento de
desarrollo económico. Por otro, con una profunda desconfianza hacia el uso que
Página 21 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
pueden hacer los ciudadanos de esa potencialidad de libre comunicación horizontal.
De ahí los continuos intentos de regulación, legislación e instauración de mecanismos
de control, siempre al amparo de la protección necesaria de los niños, los principios
democráticos y los consumidores.
En Estados Unidos, la Administración Clinton intentó dos veces, en 1996 y en
2000, establecer la censura de Internet por vía legislativa, perdiendo la batalla, en
ambas ocasiones, tanto ante la opinión pública como ante los tribunales. En Europa,
varios gobiernos y la Comisión Europea han tomado diversas iniciativas reguladoras.
Fiel a su trayectoria histórica, el gobierno francés ha sido particularmente celoso de
la soberanía nacional en materia de control de la información. La alarma sonó en
Francia, en 1995, cuando las memorias del médico de Mitterrand, cuya publicación
había sido prohibida por la autoridad judicial, se difundieron en la red. El ministro de
Información declaró que dicho gesto era un atentado intolerable contra la autoridad
del Estado e inició un esfuerzo de largo alcance para crear mecanismos de control de
la información en Internet, toda vez que el sueño francés de un Minitel republicano y
tricolor, controlado desde el centro, se desvaneció ante la realidad de las redes
globales autoevolutivas.
La Comisión Europea dictó varias directivas reguladoras que debían ser
incorporadas en las legislaciones nacionales. Una de ellas, la directiva 2000/31/CE,
estableció criterios para regular el comercio electrónico buscando "la integración
jurídica comunitaria con objeto de establecer un auténtico espacio sin fronteras
interiores en el ámbito de los servicios de la sociedad de la información". La
vaguedad del concepto de "servicios de la sociedad de la información" dejó abierta la
puerta a toda clase de interpretaciones, plasmadas en textos legislativos y
ordenanzas administrativas.
Con la intención de traducir la directiva europea en una ley española, el
Ministerio de Ciencia y Tecnología del gobierno español elaboro un Anteproyecto de
Ley de Servicios de la Sociedad de la Información , cuya primera publicación tuvo
lugar el 16 de marzo de 2000. El proyecto fue difundido en Internet para su
discusión. Dio lugar a tal polémica entre la comunidad internauta, tanto española,
como mundial, que sigue en discusión en estos momentos. La tercera redacción del
Anteproyecto, elaborada el 30 de abril de 2001, está en trámite parlamentario en
octubre del 2001, habiendo ya suscitado un vivo debate durante su discusión en el
Senado en septiembre de este mismo año ( www.internautas.org/propuestalssi.htm
). El proyecto ha sido fuertemente criticado por sectores influyentes de los
Página 22 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
internautas españoles, agrupados en este caso en torno a la campaña contra el LSSI
lanzada por la revista digital Kriptópolis , especializada en temas de seguridad y
libertad en la red, con una postura militante en la defensa de los derechos civiles de
los usuarios de Internet. Kriptópolis ha llevado su oposición hasta el punto de decidir
el traslado provisional de su Web site a un servidor en New Jersey, en previsión de
los efectos de censura que podría suponer la aprobación en España de este proyecto
de ley. La Asociación de Internautas ha sido menos radical en su postura, pero
también solicita una modificación del articulado que, manteniendo la regulación de
servicios comerciales en la red para proteger a los usuarios, impida la arbitrariedad
administrativa en la decisión sobre lo que se puede y no se puede hacer en la red.
Sin poder entrar en el detalle del debate jurídico, teniendo en cuenta el objetivo
analítico general de esta lección, resaltaré que las críticas, apoyadas por los partidos
políticos de oposición (http://www.psc.es/ambit/ntic/documents/default.asp?
apt=665, www.ic-v.org/lssi/index.htm), se centran en dos puntos esenciales:
Por un lado, la falta de protección judicial en la decisión de sancionar a un
prestador de servicios por algún acto relativo a la difusión de información en la red.
El artículo 11 del Anteproyecto establece que: "Todos los prestadores de servicios de
la sociedad de la información establecidos en España deberán cumplir las siguientes
obligaciones en relación con los contenidos: [...] c). Suspender la transmisión, el
alojamiento de datos, el acceso a las redes de telecomunicaciones o la prestación de
cualquier otro servicio de la sociedad de la información, en ejecución de resoluciones
dictadas por una autoridad judicial o administrativa". La palabra esencial,
naturalmente, es administrativa, porque ello abre la vía a que un funcionario, sin
iniciativa judicial, pueda intervenir en la libre expresión en Internet, en contradicción
directa con el artículo 20 de la Constitución Española.
El segundo punto controvertido en el Anteproyecto de LSSI es la definición
de un ente inventado por la Comisión Europea, "los servicios de la sociedad de la
información". En principio, en el Anteproyecto se establece que, a los efectos de la
ley, los servicios regulados son aquellos que "representen una actividad económica y
comercial" y no son regulados, en cambio, aquellas "páginas Web, servicios de FTP,
intercambio de ficheros, servidores de correo, noticias, boletines informativos, o
cualquier otro servicio considerado como personales, aun cuando éstas tengan
asignado dominio propio, sean realizadas de forma personal o entre varias personas,
y que no tienen como fin último ser una actividad económica y comercial". Esta
delimitación es lo que permite al Ministerio argumentar que se está respetando
Página 23 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
plenamente la libertad de expresión y que lo único que se regula es la actividad
comercial en la red. Sin embargo, es difícil hacer una distinción clara entre lo que
tiene y no tiene implicaciones de actividad económica en la red, porque ofrecer
información en línea, o instrumentos de búsqueda o acceso y recopilación de datos
que ofrezcan publicidad directa o indirecta puede ser considerada como actividad
comercial. Por ejemplo, el tener banners publicitarios en un portal implica una
actividad económica por parte del prestador de servicios. Y aquellas páginas
personales que, para financiarse, ofrecen enlaces a portales con contenido comercial
o publicitario también podrían caer bajo una cierta interpretación de lo que es y no
es comercial.
Así, esta misma lección inaugural, al ofrecer enlaces electrónicos con sitios y
portales que pueden estar asociados a banners publicitarios (que difícilmente se
pueden evitar cuando se está haciendo referencia a una amplia gama de fuentes de
información en la red), podría caer bajo la guillotina del censor administrativo a
quien no le gustaran ciertas afirmaciones o que, simplemente, no las entendiera y
decidiera prohibir por si acaso, como solía ocurrir en la España franquista. Más aún,
teniendo en cuenta la importancia de las sanciones previstas en la normativa, con
multas de hasta 600.000 euros para los prestadores de servicios, la actitud lógica de
la mayoría de ellos podría ser la autocensura en caso de duda, de modo que la
capacidad de expresión en Internet, a partir de los servidores basados en España, se
vería fuertemente limitada (pero no así, como el mismo caso de Kriptópolis indica, la
de aquellas empresas u organizaciones con capacidad para alojarse en un servidor
extranjero y más concretamente estadounidense, puesto que es en Estados Unidos
donde Internet goza de mayor protección judicial).
En estos momentos, el debate social y parlamentario continúa en la sociedad,
en las instituciones y en la red, y es probable que haya nuevas modificaciones y
aclaraciones en la ley definitiva. Pero la experiencia es rica en enseñanzas, de las
que quiero resaltar tres.
La primera es el considerable nerviosismo de las administraciones, alentado
desde las burocráticas instituciones europeas, sobre su posible pérdida de control de
las actividades en la red, nerviosismo favorecido por el desconocimiento y la falta de
familiaridad con el medio Internet. Como señala el abogado de Kriptópolis, Sánchez
Almeida, ya existen suficientes normativas para proteger los derechos de los
ciudadanos y penalizar las conductas delictivas, dentro y fuera de la red. Basta con
aplicarlas. El problema puede ser técnico, la dificultad de aplicar esas sanciones en la
Página 24 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
red, lo cual requiere una modernización de las instituciones judiciales y policiales.
Pero ante la dificultad de esa modernización se intenta resolver el problema
descentralizando la censura previa a la estructura de prestadores de servicios y
haciéndolos responsables de las excepcionales infracciones que puedan representar
algunos contenidos. Es como hacer responsables a los propietarios de las imprentas
por las consecuencias que pudieran resultar de la publicación de ciertos artículos en
la prensa. O a los operadores de telecomunicaciones por las conversaciones
telefónicas entre mafiosos que planean un robo.
Mi segunda observación se refiere a la postura ideológica defensiva de los
reguladores de Internet. Se multiplican las fórmulas precautorias para afirmar la
importancia de Internet y de su libre expresión, en línea con la ideología liberal que
predomina en la mayoría de los gobiernos europeos, cualquiera que sea su tendencia
política. Pero los viejos reflejos estatistas se combinan con esa ideología, llevando a
formulaciones ambiguas y políticas titubeantes, cuya plasmación legislativa
contribuye a la confusión.
En tercer lugar, es notable la capacidad de reacción de la comunidad
internauta a cualquier intento de coartar su libertad. No tendrán la vida fácil quienes
aún piensen que las instituciones del Estado pueden continuar operando como antes
del desarrollo de Internet.
Ahora bien, la defensa de la libertad en Internet tiende a ser selectiva. Se
reacciona contra el Estado, pero se descuida la defensa de la libertad de los usuarios,
de los ciudadanos y de los trabajadores, en un mundo en que los abusos de poder y
la desigualdad no han desaparecido ante la magia de la red. Por un lado, muchos
prestadores de servicios imponen condiciones económicas leoninas para acceder a la
red, invaden la privacidad de sus usuarios y organizan enlaces en la red según sus
intereses comerciales, por ejemplo, jerarquizando los Web sites en los buscadores.
Por otro lado, los derechos sindicales de expresión en la red están siendo ignorados
en muchas empresas, como denuncia, entre otras, la campaña sobre este tema
llevada a cabo en el 2001 por Comisiones Obreras de Cataluña. En suma, la libertad
en Internet, como en la sociedad, es indivisible. La defensa de la libre expresión y
comunicación en la red debería alcanzar a todo el mundo, a los consumidores, a los
trabajadores, a las organizaciones cívicas. Y en esa libertad parece normal incluir las
condiciones materiales de dicha libertad, empezando por las tarifas de conexión y la
difusión de los medios informáticos de comunicación en el conjunto de la población.
La libertad sin igualdad se convierte en privilegio y debilita los fundamentos de su
Página 25 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
defensa por parte de la sociedad en su conjunto.
Encriptación Las organizaciones de poder, a lo largo de la historia, han hecho del secreto
de sus comunicaciones un principio fundamental de su actividad. Dicho secreto se
intentó proteger mediante la encriptación, es decir, la codificación del lenguaje
mediante una clave secreta sólo conocida por la organización emisora del mensaje y
el destinatario del mensaje determinado por dicha organización. El anecdotario
histórico abunda con ejemplos de batallas e, incluso, guerras supuestamente
perdidas o ganadas mediante la interceptación y desencriptación de mensajes
decisivos entre los centros de poder. El origen de la informática contemporánea
durante la Segunda Guerra Mundial parece estar relacionado con los esfuerzos de
matemáticos extraordinarios, como el inglés Turing, para desarrollar algoritmos
capaces de descifrar los códigos del enemigo.
Por tanto, en cierto modo, no es de extrañar en la era de la información,
basada en la comunicación de todo tipo de mensajes, que el poder (y, por tanto, la
libertad) tenga una relación cada vez más estrecha con la capacidad de encriptar y
descifrar. Hete aquí que lo que era una arcana tecnología matemática relegada a los
dispositivos secretos de los servicios de inteligencia de los Estados se haya
convertido, en el espacio de dos décadas, en la tecnología clave para el desarrollo
del comercio electrónico, para la protección de la privacidad, para el ejercicio de la
libertad en la red y, también, paradójicamente, para nuevas formas de control en la
red. La encriptación es el principal campo de batalla tecnológico-social para la
preservación de la libertad en Internet.
Trataré de explicar el sentido de esta afirmación. Y lo haré utilizando una
somera referencia histórica al desarrollo de la encriptación en la sociedad en las dos
últimas décadas, con especial referencia a Estados Unidos. Como documenta Steven
Levy (2001) en su apasionante libro sobre el tema, la tecnología de encriptación
estaba monopolizada en todos los países por los servicios de inteligencia, que tenían
a su disposición una legión de matemáticos de primer orden, y, en cuanto
aparecieron los ordenadores, las mejores y más potentes máquinas a su servicio.
Con la ayuda de dichas máquinas, los matemáticos construían claves difíciles de
penetrar y, al tiempo, procesaban a gran velocidad una enorme combinatoria para
encontrar los puntos débiles (patrones repetitivos que pudieran desvelar la clave
secreta) en los mensajes cifrados de otras organizaciones.
En Estados Unidos, la supersecreta National Security Agency (con poderes
Página 26 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
mucho más extensos que los del FBI o la CIA) fue y es la que dispone de la mayor
capacidad tecnológica de encriptación/desciframiento del planeta. Tal importancia se
le atribuyó a esta tecnología que se clasificó en el rubro de armamento que no se
podía exportar fuera de Estados Unidos sin un permiso especial del Departamento de
Defensa. De modo que enviar una fórmula matemática a un colega fuera de Estados
Unidos se convirtió en un delito penado por la ley. Más aún, la NSA tuvo buen
cuidado de cooptar, contratar o amenazar a aquellos matemáticos que se adentraron
en ese complejo campo de investigación. Pero hubo quienes resistieron a la presión y
se atrevieron a desarrollar fórmulas autónomas de encriptación. Tal fue el caso del
legendario Whitfield Diffie , un matemático sin carrera académica, obsesionado por
la encriptación desde joven, que, en colaboración con un profesor de Stanford,
Marty Hellman, y con la ayuda de un estudiante de Berkeley, Ralph Merkel,
descubrió, a mediados de los setenta, nuevas formas de encriptación y, pese a las
presiones del gobierno, las publicó. Su genialidad consistió en el llamado principio de
la doble clave o clave pública. Hasta entonces, toda clave se basaba en un algoritmo
que permitía cifrar un mensaje de forma difícil de reconocer y, al mismo tiempo,
reconstruirlo en su sentido original basándose en el conocimiento de dicho algoritmo.
Este método tradicional requería una centralización total del sistema de claves únicas
y, por tanto, era vulnerable a quien penetrara en esa base de datos. Lo que se
adaptaba al secreto militar de una organización separada de la sociedad no era
practicable en una sociedad en que todo se basaba en comunicación electrónica y en
que los individuos, las empresas y las propias instituciones necesitaban una
protección cotidiana de sus mensajes para garantizar su privacidad y su autonomía.
Esto requería una descentralización e individualización del sistema de encriptación.
Mediante el principio de la doble clave, cada persona u organización tiene dos claves
de encriptación (o sea, códigos informáticos que permiten transformar el texto de un
mensaje en un sistema digital que altera el sentido lingüístico y lo puede volver a
reconstruir).
Una de las claves es pública en el sentido de que es asignada al
originario/destinatario de un mensaje y que se conoce, mediante un listado, qué
clave corresponde a quién. Pero, sin el conocimiento de la clave privada, es muy
difícil, si no imposible, descifrar el mensaje. Esa otra clave es específica a cada
individuo u organización, sólo quien la detenta la puede utilizar, pero sólo sirve con
relación a su clave pública en la que recibe el mensaje. Mediante este ingenioso
sistema matemático, se garantiza a la vez la generalidad del cifrado y la
Página 27 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
individualidad de su desciframiento.
Como en otros temas de la historia de Internet, el poder de encriptación
descentralizado recibió dos usos. Por un lado, fue comercializado. Por otro, sirvió
como instrumento de construcción de autonomía de redes de comunicación. La
comercialización, en su origen, corrió a cargo de tres matemáticos de MIT o
asociados a MIT, Rivest, Shamir y Adleman, que perfeccionaron el sistema de
encriptación Diffie-Hellman y, con ayuda de hombres de negocios más avezados que
ellos, patentaron y desarrollaron la tecnología de encriptación RSA, que sirvió de
base para buena parte de las tecnologías de protección de las comunicaciones
electrónicas que se utilizan hoy en día.
En efecto, a partir del sistema de doble clave, no sólo se puede preservar el
secreto del mensaje sino establecer la autenticidad de su originario. De modo que la
encriptación es la base de las firmas digitales que permiten el desarrollo del comercio
electrónico en condiciones de relativa seguridad. En efecto, si la gente pudiera
encriptar sus mensajes en lugar de enviar un mensaje por correo electrónico con su
número de tarjeta de crédito abierto a todo el mundo, no tendrían por qué temer su
interceptación y mal uso. Esto es, en realidad, lo que hacen las grandes empresas
con capacidad de encriptación para transferir fondos y comunicarse mensajes
confidenciales. Pero la tecnología de autentificación y firma digital se está
difundiendo bajo el control de las empresas e instituciones, sin transmitir la
capacidad autónoma de encriptación a los usuarios. Ello es así, por un lado, porque
la comercialización de la tecnología creó un sistema de patentes que la hacen
costosa en su uso comercial.
Pero, más importante todavía, las administraciones de casi todos los países
han puesto enormes cortapisas a la difusión de la tecnología de encriptación por lo
que ello representa de posible autonomía para los individuos y organizaciones
contestatarias con respecto a los gobiernos y a las grandes empresas. De ahí que se
desarrollara una segunda tendencia, de matriz libertaria, para proporcionar a los
ciudadanos la tecnología de encriptación. Un personaje fundamental en este sentido
fue Phil Zimmerman , otro matemático rebelde que, en 1991, en respuesta a los
intentos del Senado estadounidense de prohibir la encriptación en el marco de la
legislación antiterrorista, difundió en Internet su sistema PGP (Pretty Good Privacy).
PGP está también basado en principios similares a los inventados por Diffie y
Hellman, pero en lugar de crear un directorio de claves públicas se basa en una red
autónoma de autentificación en la que cada persona autentifica con su firma digital a
Página 28 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
una persona que conoce y así sucesivamente, de modo que, con conocer bien a una
persona de la cadena, dicho conocimiento es suficiente para saber que la identidad
del detentor de una determinada clave pública es fidedigna. Zimmerman sufrió
persecución judicial por su gesto, pues, naturalmente, la publicación en Internet
supuso que mucha gente en todo el mundo registrara las fórmulas en su ordenador,
lo que, desde el punto de vista jurídico, equivalía a exportar armamento sin licencia,
aunque Zimmerman no se beneficiara de la operación. También la empresa
comercializadora de RSA lo amenazó judicialmente por utilizar conocimientos que
habían patentado los investigadores de MIT (pero no Diffie y Hellman, los primeros
innovadores de la tecnología). Zimmerman pertenecía a una red informal de
criptógrafos que se reunían anualmente en un movimiento contracultural
(autodenominados cypherpunks ) y que aumentaron su número e influencia con el
advenimiento de Internet. Uno de los participantes más respetados en este
movimiento tecnolibertario es John Gilmore, uno de los pioneros de Sun
Microsystems, que, en 1990, creó, junto con Mitch Kapor y John Perry Barlow, la
Electronic Frontier Foundation , una de las principales organizaciones de defensa de
las libertades en el mundo digital. Es significativo el discurso que sobre la
encriptación pronunció John Gilmore en 1991 en una reunión sobre "ordenadores,
libertad y privacidad":
"¿Qué tal si creáramos una sociedad en la que la información nunca pudiera
ser registrada? ¿En la que se pudiera pagar o alquilar un vídeo sin dejar un número
de tarjeta de crédito o de cuenta bancaria? ¿En la que pudiera certificar que tiene
permiso de conducir sin dar su nombre? ¿En la que se pudiera enviar o recibir un
mensaje sin revelar la localización física, como una casilla postal electrónica? Éste es
el tipo de sociedad que quiero construir. Quiero garantizar, con física y matemáticas,
no con leyes, cosas como la verdadera privacidad de las comunicaciones personales
[...] la verdadera privacidad de los expedientes personales [...], la verdadera libertad
de comercio [...], la verdadera privacidad financiera [...] y el verdadero control de la
identificación" (citado por Levy, 2001; pág. 208).
Esta utopía de la libertad sin instituciones, mediante el poder de la tecnología
en manos de los individuos, es la raíz de los proyectos libertarios en la sociedad de la
información. Es una poderosa visión que informó proyectos empresariales y sociales
a lo largo de la siguiente década. Por ejemplo, uno de los personajes más
innovadores del mundo de la criptografía, David Chaum, desarrolló el dinero digital
sin huella personal y fundó en Holanda una empresa, Digicash, para comercializar su
Página 29 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
invento. La empresa fracasó por falta de apoyos en el mundo empresarial, que
siempre desconfió de su carácter visionario.
Pero, del mundo de los cypherpunks, como se autodenominaron los
anarcocriptógrafos, salieron tecnologías de protección de la privacidad a través de
los diseños de anonimato en la red mediante los remailers, es decir, programas que
retransmiten automáticamente los mensajes a través de un circuito de servers hasta
borrar los orígenes de procedencia de los mensajes (www.anonymizer.com). El más
avanzado diseñador de estos remailers en los años noventa fue, en 1993, el
informático finlandés Julf Helsingius, que desarrolló sistemas de remail desde su casa
de Helsinki para permitir la libre comunicación de alcohólicos en rehabilitación sin
riesgo a ser identificados. Creó Penet, un sistema que opera en una máquina UNIX
con un 386, y sin ningún tipo de publicidad empezó a recibir miles de mensajes de
todo el mundo que, transitando por su sistema, borraban todo rastro. La ingenuidad
de hacker de Helsingius acabó obligándolo a cerrar su servidor cuando una querella
criminal contra él, efectuada desde Los Ángeles, llevó a la policía finlandesa hasta su
casa. Negándose a ejercer la censura y a denunciar los orígenes de las rutas que
llegaban a su servidor, prefirió cerrar Penet . Sin embargo, la idea de
anonimizadores continuó desarrollándose y, en estos momentos, hay numerosas
empresas (de las cuales la más conocida es la canadiense Zero Knowledge ) que
permiten a cualquiera utilizar Internet sin dejar huella ( www.silentsurf.com ).
Si tal posibilidad se generalizara, la libertad de las personas para
comunicarse, expresarse y organizarse sería total. De ahí las diversas iniciativas en
los gobiernos de todo el mundo para controlar la capacidad de encriptación y para
limitar su uso.
Sin embargo, los términos del debate no son tan claros, porque la tecnología
de encriptación sirve a la vez para proteger la privacidad (garantizando, por tanto, la
libertad de comunicación) y para autentificar lo originario de un mensaje,
permitiendo, por consiguiente, individualizar los mensajes
(www.qsilver.queensu.ca/sociology). Más aún, en los movimientos contestatarios en
torno a Internet, tales como la red Freenet, se produjo, en el año 2000, una
evolución desde la defensa del derecho a encriptar (para proteger la privacidad del
ciudadano) hacia el derecho a descifrar (para permitir el acceso de los ciudadanos a
la información detentada por gobiernos y empresas). Ahora bien, en cualquier caso,
la práctica de ambos derechos pasa por la capacidad autónoma de la gente para
utilizar las tecnologías de encriptación. Esto significa, por un lado, el libre desarrollo
Página 30 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
de tecnologías de encriptación en comunicación horizontal del tipo PGP, a saber, con
doble clave y autentificación mediante redes de confianza interpersonal. Por otro,
requiere la capacidad de libre difusión de la información de tecnologías de
encriptación en la red. Tanto la administración estadounidense como el G8 y el
Consejo de Europa (además de los sospechosos habituales de la censura, a saber,
China, Singapur, Malasia, los países islámico-fundamentalistas, etc.) se han
pronunciado a favor del control burocrático de la tecnología de encriptación y están
desarrollando legislación y medidas administrativas para conseguirlo.
En realidad, a pesar de lo que piensen los tecnolibertarios, ninguna tecnología
asegura la libertad. Pero de igual manera que el control de los medios de impresión
fue en la historia el fundamento de la restricción o expansión de la libertad de
prensa, en nuestra época la difusión o control de la tecnología de encriptación se ha
convertido en un criterio definidor para saber en qué medida los gobiernos confían
en sus ciudadanos y respetan sus derechos.
¿Cuál es, entonces, la relación entre Internet y libertad? La historia y la
cultura de Internet lo constituyeron como tecnología de libertad. Pero la libertad no
es una página blanca sobre la que se proyectan nuestros sueños. Es el tejido áspero
en el que se manifiestan los poderes que estructuran la sociedad. Al efecto Gilmore
se contrapone el efecto Microsoft. Según el primero, Internet interpreta cualquier
censura como un obstáculo técnico y tiende a rodearlo. Según el segundo, Microsoft
interpreta cualquier proceso de comunicación como oportunidad de negocio y tiende
a monopolizarlo. A las aspiraciones de libertad se contraponen los instintos básicos
de las burocracias políticas, cualesquiera que sean sus ideologías. Y a liberación de la
humanidad por la tecnología de la información se contrapone la realidad presente de
una humanidad mayoritariamente desinformada y marginada de la tecnología.
Internet, en nuestro tiempo, necesita libertad para desplegar su
extraordinario potencial de comunicación y de creatividad. Y la libertad de expresión
y de comunicación ha encontrado en Internet su soporte material adecuado. Pero
tanto Internet, como la libertad, sólo pueden vivir en las mentes y en los corazones
de una sociedad libre, libre para todos, que modele sus instituciones políticas a
imagen y semejanza de su práctica de libertad.
Página 31 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Referencias bibliográficas
1. CASTELLS, M.; KISELYOVA, E. (1995). The collapse of the Soviet Union: the View from the Information Society. Berkeley: University of California, International & Area Studies Book Series.
2. HAFFNER, K.; MARKOFF, J. (1995). Cyberpunks: outlaws and hackers in the computer frontier. New York: Touchstone Books.
3. HIMANEN, P. (2001). The hacker ethic and the spirit of the Information Age.
Prólogo de Linus Torvalds. New York: Random House (en castellano,
Destino, 2002).
4. LESSIG, L. (1999). Code and other laws of cyberspace. New York: Basic
Books (en castellano, Taurus, 2001).
5. LEVY, S. (1984). Hackers. Heroes of the computer revolution. New York: Penguin.
6. LEVY, S. (2001). Crypto. How the code rebels beat the government - saving privacy in the digital age. New York: Viking.
7. RAYMOND, E. (1999). The cathedral and the bazaar. Musings on Linux and Open Source by an accidental revolutionary. Sebastopol, California: O' Reilly (en castellano, Alianza Editorial, 2002).
8. RHEINGOLD, H. (1993/2000). The virtual community. Homesteading in
the electronic frontier. Cambridge, Massachussets: MIT Press.
Página 32 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
ALONSO UREBA, Antonio; Telecomunicaciones y Audiovisual: Los retos regulatorios de la convergencia, Congreso de Convergencia de Medios, Mayo, 2002.
Telecomunicaciones y Audiovisual: Los retos regulatorios de la
convergencia Por Antonio Alonso Ureba,
Secretario General de Telefónica, S.A
Los próximos años serán decisivos para el desarrollo de la denominada
sociedad de la información. Éste será el verdadero reto para la sociedad en su
conjunto, para las compañías de telecomunicaciones, para las Administraciones y
Gobiernos que con el instrumento de la Regulación podrán impulsar y ordenar el
proceso para su implantación.
Reto, por tanto, entendido como objetivo a conseguir, que en el caso
regulatorio debe concretarse en su sentido más amplio de ordenación e impulso y
lejano por ello, del más reducido de intervención, y todo esto, para conseguir la
“convergencia” entendida como proceso que a largo plazo cree un escenario en el
que los usuarios disfruten de una gama de servicios y contenidos integrados, a los
que pueden acceder, a su libre elección, a través de diferentes plataformas de
telecomunicaciones, esto es, diferentes redes y terminales. Y quizás a más largo
plazo, posiblemente a través de los mismos terminales, aunque la red pueda ser
distinta.
Esta introducción en realidad podría servir como conclusión para mi breve
intervención, pero he querido traerla aquí para remarcar la importancia que para
aquel objetivo, el reto, tiene entender el término regulación en un sentido no
tradicional del que escaparan instrumentos tan importantes como las políticas
orientadas al fomento de la innovación y de I+D, las políticas orientadas al fomento
del desarrollo y la cohesión social, o las destinadas al desarrollo sectorial, incluyendo
medidas de incentivación fiscal, económicas, etc.
La “convergencia” es un camino que estamos haciendo al andar. Es sin duda,
el segundo gran paso tras la liberalización de las comunicaciones y se entrelaza con
la cuestión tan importante de la Sociedad de la Información.
Página 33 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
La Convergencia, entendida en este sentido amplio, presenta numerosos
retos, y al mismo tiempo, importantes oportunidades. En la mayoría de ellos, el
enfoque que se adopte desde los poderes públicos tendrá un impacto significativo.
De todos ellos, quizás los más significativos sean los que afectan a:
• las plataformas de acceso, ayer barrera y mañana catalizador de la
convergencia,
• los servicios y contenidos, es decir, lo más visible y beneficioso para los
usuarios
• y las estructuras del mercado y los modelos de negocio
1. Las plataformas de acceso Necesariamente, existen en el camino de la convergencia diferentes
escenarios con niveles de convergencia diferentes, y con diferentes elementos para
la convergencia. La convergencia podría venir modulada por dos factores clave: la
interactividad, y las prestaciones de las redes y de los terminales, lo que
denominamos hoy banda ancha.
Hoy la mayoría de los agentes del sector mantienen la preocupación de que
para alcanzar un nivel aceptable de desarrollo de esas plataformas de acceso de
banda ancha, tanto fijas como móviles, serán precisas cuantiosas inversiones.
Inversión en innovación tecnológica, inversión en infraestructuras, inversión
en innovación comercial, en formación, en publicidad, en creación de servicios y
contenidos, etc.
El mercado convergente es un nuevo mercado que hay que crear y ello
requiere fuertes inversiones. Y atraer esa inversión no es algo que se pueda
considerar como hecho sino que habrá que impulsarlo. Para recuperar e impulsar de
nuevo el interés por la e-euforia será necesario un marco que permita restaurar la
confianza de los inversores. ¿Y cuál puede ser la clave para lograrlo? Sencillamente:
la creación de valor.
En definitiva, dos conceptos fundamentales: las fuertes inversiones
necesarias y la creación de valor como clave para crear un clima de
confianza entre los inversores.
Ese reto de crear valor exige planteamientos, y entre ellos muy especialmente
de tipo regulatorio, que sean acordes a la nueva realidad. Estamos ante la creación
Página 34 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
de un mercado nuevo, y cada cual trata de llegar a él por diferentes caminos.
Efectivamente, cualquiera puede observar ya cierto grado de convergencia en los
operadores de cable, que van al mercado con ofertas unificadas de telefonía, de TV y
de acceso a Internet. No dejan de ser paquetes de servicios, pero suponen ya un
paso en la dirección correcta.
De igual modo, es también visible ya la oferta de otros operadores ofreciendo
telefonía, Internet y muy pronto también vídeo mediante tecnología ADSL. Es cierto
que para ello aún se requiere un teléfono, un modem, un descodificador, un terminal
de TV y un PC que se conectan a través de varias interfaces. Pero… ¿Cuánto habrá
que esperar para ver eso mismo sobre una única plataforma de usuario, por ejemplo
un set-top box que integre gran parte de las funciones?
Un hecho a destacar es que en el mundo de la convergencia hay ya, y
habrá aún más, competencia entre diferentes plataformas de acceso.
En ese sentido, no quisiera dejar de señalar además de las mencionadas
redes de TV por cable o de telefonía, las redes móviles de 2,5 y 3ª generación, que
representan una de las mayores apuestas de futuro por su capacidad para maridar el
móvil e Internet, las redes de acceso fijas sin hilos, o el potencial que presentan las
redes de radiodifusión, como las de Televisión Digital, por Satélite y Terrenal.
Serán finalmente los usuarios, y en definitiva el mercado, quienes determinen
las plataformas que mejor se adecuan a sus necesidades. Desde la óptica más
actual, parecería razonable plantearse como objetivo que los servicios multimedia e
interactivos lleguen el mayor espectro posible de la población. A este fin es vital
identificar las tecnologías más asequibles y adecuadas que faciliten el despliegue
extensivo de la banda ancha, permitiendo a los operadores optimizar sus redes.
En ese escenario multiplataforma, erróneo sería continuar con la orientación
regulatoria tradicional, que sirvió para la ruptura del monopolio, y que estaba más
ocupada, como era lógico en esa fase, en incrementar el número de operadores y en
bajar los precios, que en fomentar la inversión y la innovación.
Es necesario, en su lugar, sentar las bases para asegurar el desarrollo del
sector. Básicamente, se trata de que las Autoridades concentren sus esfuerzos en
políticas de apoyo, como por ejemplo de promoción de I+D, y la puesta en práctica
de un marco regulatorio neutral, fiable y predecible, que estimule la inversión y la
innovación y que sea aplicable por igual a todas las redes y servicios. El objetivo ha
de ser sin duda el incentivar y atraer la inversión fomentando la creación de valor en
Página 35 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
un mercado sin barreras a la participación. Ése es el reto y hoy es la oportunidad
para hacerlo.
Cabe destacar la oportunidad que ofrece en el entorno europeo el
proceso de transposición del nuevo marco regulatorio recientemente
aprobado, que es tecnológicamente neutro, para llevar a la práctica
todos estos principios.
En otras regiones, la aplicación de estas ideas sería igualmente válida, con los
ajustes que fueran oportunos para adaptarlas a las prioridades de sus mercados
nacionales.
Se ha de orientar la regulación existente hacia un marco con visión de
conjunto, que permita eliminar todos aquellos elementos que favorecen
artificialmente el uso de tecnologías o soluciones comerciales específicas.
Entre ellas, y muy especialmente las políticas discriminatorias. Es obvio que,
en la medida en que los operadores de telecomunicaciones y los radiodifusores
puedan prestar servicios intercambiables para el público, los principios y las formas
de pago por el uso del espectro radioeléctrico deberían ser también comparables.
Por otra parte, la rápida evolución de los cambios tecnológicos que impulsan
el fenómeno de la convergencia podría hacer recomendable la aplicación de criterios
de autorregulación basada en acuerdos y códigos de conducta elaborados por la
propia industria, que proporciona la flexibilidad necesaria para adaptarse al proceso.
2. Los servicios y contenidos, de banda ancha. A día de hoy, es evidente que el potencial de los servicios y contenidos de
banda ancha está prácticamente por explotar. Y no es fácil determinar los aspectos
que inciden sobre la demanda de nuevos servicios de banda ancha. Por eso, es
necesario seguir probando e innovando para satisfacer las expectativas de los
usuarios. Internet sigue siendo el paradigma, pero malo sería restringir este
planteamiento al mero uso de Internet, por importante que sea.
Con los datos disponibles en este momento, aproximadamente un 18% de la
población española, unos 7.4 millones de personas, son usuarios de Internet y
alrededor de 570.000 internautas utilizan para ello accesos de banda ancha. Es difícil
predecir, y más en este sector, el techo de estos servicios pero la ralentización del
crecimiento tanto del número de PCs en los hogares, como de usuarios de Internet,
Página 36 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
permite suponer que el PC no será, en el futuro, la forma generalizada de acceso
online doméstico a los servicios de la Sociedad de la Información.
Podría parecer que el mayor atractivo para los usuarios sigue estando en la
posibilidad de estar siempre conectado, hoy fundamentalmente a los servicios
relacionados con el acceso a Internet, mañana a nuevos servicios y contenidos. Para
esto la oferta de Banda Ancha deberá ser atractiva en contenidos, interactividad,
precios, horario, etc.
Es importante, pues, evitar soluciones que, además de no ser neutras desde
un punto de vista tecnológico, puedan distorsionar artificialmente el mercado.
Se hace por tanto imprescindible liberar el mercado permitiendo
reajustar precios al valor percibido. Si así no fuera, podría suceder que
la regulación del acceso a Internet de banda estrecha se podría
transformar en una barrera al desarrollo esperado de la banda ancha.
Si los usuarios son capaces de percibir las ventajas del mundo de la
convergencia estarán dispuestos a utilizarlos pagando el precio adecuado al valor
recibido.
La convergencia no es algo que vaya a surgir de hoy para mañana. Pero hay
que empezar por algún lugar. Hay que empezar por crear el mercado. Y para ello es
esencial en esta etapa centrarse, agentes públicos y privados, en eliminar las
barreras.
En primer lugar, confiar en el mercado evitando barreras excesivamente
conservadoras a la hora, por ejemplo, de permitir a los operadores ofrecer paquetes
de servicios que integren diferentes prestaciones.
De otra parte, es necesario un cambio de mentalidad importante por
parte de los usuarios en el sentido de ir progresivamente abandonando
la cultura del “todo gratis”.
Son pocos los proveedores de servicios que puedan confiar simplemente en
los ingresos por publicidad como medio para financiar sus inversiones y que estén
dispuestos a arriesgar y a ofrecer nuevas aplicaciones y contenidos. Condición sine
qua non será también el que resulte fácil y seguro cobrar algo por bajar de la red y
desde cualquier red.
Página 37 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Condición necesaria para ese cambio de mentalidad es que los
usuarios encuentren unas condiciones aceptables de confianza y de
seguridad.
Para muchos, una de las barreras actuales es la falta de protección adecuada
de los contenidos más interesantes, como la música o las películas. La protección y
rentabilidad de contenidos, en especial para los propietarios de derechos de autor,
tiene mucho que ver con la cadena de valor de los sectores en convergencia. Y con
su supervivencia.
Bajo este epígrafe incluimos también un nivel adecuado de protección de los
datos personales, la disposición de mecanismos rápidos y efectivos de resolución de
conflictos, de alcance global, o la seguridad de las transacciones electrónicas, y en
general la seguridad frente a ataques ilegales.
Y no olvidemos, por otra parte, la capacidad de los poderes públicos de
incorporar procedimientos de administración electrónica, y que, en cambio,
contribuirán, si proporcionan suficientes ventajas a los usuarios, al acercamiento de
los ciudadanos a las nuevas tecnologías, y en definitiva a incrementar sus hábitos de
utilización.
Estamos hablando de aplicaciones en el campo fiscal, de la seguridad social,
la salud, la educación, etc.
3. La estructura del mercado y los modelos de negocio Ya se ha esbozado mínimamente la complejidad y amplitud de la cadena de
valor a la que pueden dar lugar los sectores en convergencia. Desde la producción de
contenidos y aplicaciones hasta el acceso al usuario final.
En este mercado, y con vistas a su desarrollo, es esencial plantearse
una cadena abierta en todos sus elementos, que permita a cada
empresa elegir el elemento o los elementos donde desea estar
presente, en competencia con otros.
Ahora bien, ello no debe impedir que existan agentes que libremente decidan
estar presentes en toda la cadena. Las presunciones excesivamente conservadoras
de traslado de dominio o las cargas regulatorias excesivas no deben dar al traste con
las ambiciones, legítimas, de los agentes en el mercado. No se trata de establecer
nuevas barreras regulatorias, sino de promover el desarrollo.
Página 38 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
En este ámbito, toma especial relevancia la compatibilidad e interoperabilidad
de las plataformas, tanto al nivel de red como de terminales. Y a ello contribuirá
decididamente la disponibilidad de estándares adecuados. Para lo cual, es necesario
un proceso de diálogo en la industria y la salvaguardia a ultranza del principio de
adopción voluntaria de los mismos, sin imposiciones.
Posiblemente, uno de los aspectos que resultarán clave en este sentido serán
los sistemas de acceso condicional. Con carácter general, el interés de los usuarios
se centra en los servicios y contenidos que pueden acceder y adquirir, no los medios
tecnológicos de soporte. Por ello, las plataformas de distribución y los sistemas de
operación no deberían suponer una restricción innecesaria para el acceso a servicios
y contenidos por parte de los usuarios.
En ese sentido, la interoperabilidad entre plataformas, de modo que se
mantenga la integridad, privacidad y seguridad de las mismas, amplía
la capacidad de elección por parte del consumidor.
No quisiera pasar por alto un hecho que considero fundamental. El fenómeno
de la convergencia no es algo nuestro, nacional, ni europeo, ni americano, es global.
Y eso tiene serias implicaciones para la posición de las empresas, particularmente de
servicios y contenidos, en el mercado global.
Sería un sin sentido no reconocer el alcance global de este mercado o
el establecer diferencias de trato nacionales que impiden a las
empresas presentes en ciertos países competir en igualdad con sus
homólogas en otras regiones.
4. Conclusiones Hemos planteado la necesidad de crear un marco de confianza para los
inversores, en un entorno de gran complejidad, que permita crear mercado y crecer
en este nuevo mercado. Para ello, las autoridades cuentan con múltiples mecanismos
para promover el desarrollo del mercado de la convergencia.
Claro que siempre existe la tentación de intervenir en los mercados y agentes
favorables a esa intervención. El riesgo de que ello ocurra no es despreciable y sus
efectos serían más que perniciosos: la desincentivación de la inversión y de la
innovación, en el momento en que precisamente resulta más necesaria.
Página 39 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Podría ser adecuada al nuevo entorno la política de crear las condiciones para
que todas las empresas puedan correr en la implantación de esta convergencia.
El reto del regulador está precisamente ahí: en apostar por este cambio de
enfoque, con una visión más amplia, global, moderna y de largo plazo. El objetivo es
atraer la inversión en este sector, para crecer.
Se pretende con ello alcanzar un despliegue rápido y eficaz para que el
conjunto de la población tenga acceso a una infraestructura de banda ancha y a los
servicios y aplicaciones correspondientes; si no lo conseguimos:
• desde un punto de vista social se corre el riesgo de hacer perdurar e incluso
incrementar la fractura digital con el consiguiente fracaso de la Sociedad de
la Información
• desde el punto de vista de la industria y el desarrollo tecnológico, se corre el
riesgo de paralizar la innovación de servicios, que al fin y al cabo es el
principal motor de asentamiento de cualquier infraestructura
Hemos repasado alguna de las claves para ello: disponibilidad de
distintas plataformas de banda ancha, interoperabilidad de las plataformas,
seguridad y privacidad, presencia en la cadena de valor, neutralidad
tecnológica, creación de confianza para los inversores, etc.
Finalmente quisiera centrarme ahora en el ámbito europeo, refiriéndome al
proceso de transposición del nuevo marco regulatorio, que afecta a las distintas
plataformas de banda ancha, y que ofrece una buena oportunidad para devolver el
clima de confianza y de impulso a la Sociedad de la Información, instaurando un
nuevo marco regulatorio que contemple entre sus objetivos principales el fomento de
la innovación y de la inversión. El volumen de inversión requerida para el desarrollo
deseado de la Sociedad de la Información justifica esta orientación. No obstante, se
puede ir avanzando ya en esa dirección sin tener que esperar a la
transposición.
Igualmente, en otros mercados geográficos, y habida cuenta del carácter
global de la convergencia, serían también de aplicación las mismas ideas y principios
básicos.
En resumen, los retos son muchos y no creo que haya recetas mágicas.
Existirá una compleja mezcla de factores, pero al final serán los usuarios los que
tengan la última palabra. Por nuestra parte, seguiremos intentándolo.
Muchas gracias.
Página 40 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
MATTELART, A.; MATTELART, M.; “La teoría de la información”, en Historia de las teorías de la comunicación, Paidós, 1997, Cap. 3, pp. 46-47
La teoría de la información. 2. La referencia cibernética
La entropía
En 1948, año en que aparece la primera versión de la teoría de Shannon, su ex
profesor Norbert Wiener publica Cybernetics or Control and Communication in the
Animal and Machine. Allí vislumbra la organización de la sociedad futura sobre la base
es esa nueva materia prima en que pronto consistirá, según él, la “información”. Si
bien manifiesta desear el advenimiento de este nuevo ideal de una “sociedad de la
información”, esa “nueva utopía” [Breton y Proulx, 1989; Breton, 1992], no por ello
deja de llamar la atención sobre los riesgos de su perversión. La entropía, esa
tendencia que tiene la naturaleza a destruir lo ordenado y a precipitar la degradación
biológica y el desorden social, constituye la amenaza fundamental. La información, las
máquinas que la tratan y las redes que éstas tejen son las únicas capaces de luchar
contra esta tendencia a la entropía. “La cantidad de información de un sistema es la
medida de su grado de organización (escribe Wiener); la entropía es la medida de su
grado de desorganización; una es el reverso de la otra”.
La información debe poder circular. La sociedad de la información sólo puede
existir a condición de que haya un intercambio sin trabas. Es incompatible por
definición con el embargo o la práctica del secreto, las desigualdades de acceso a la
información y la transformación de esta última en mercancía. El avance de la entropía
es directamente proporcional al retroceso del progreso. A diferencia de Shannon, que
se guarda de hacer comentarios sobre la evolución de la sociedad, Wiener, aún bajo la
conmoción de esa vuelta a la barbarie que supuso el segundo conflicto mundial, no
duda en denunciar los riesgos de la entropía, condenando tajantemente estos “factores
antihomeostáticos” que son en la sociedad las intensificaciones del control de los
medios de comunicación. Porque “este sistema, que más que cualquier otro debería
contribuir a la homeostasis social, ha caído directamente en manos de aquellos que se
preocupan ante todo ante el poder y el dinero”.
Página 41 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
VELÁZQUEZ, Mercedes; La Necesidad de regular el uso de las Nuevas Tecnologías, Buenos Aires, 2004
La necesidad de regular el uso de las Nuevas Tecnologías
Por Mercedes Velázquez2
La Sociedad de la Información utiliza masiva e intensivamente las nuevas
Tecnologías de la Información y Comunicación (TIC) para difundir la información,
conocimiento y canalizar intercambios de toda naturaleza.
Internet, si bien no es la única, parece ser la que con mayor fuerza, produce
estos fenómenos. Y, por dar un ejemplo cotidiano, analicemos la facilidad que tenemos
para acceder a los diarios del país y del mundo, con la comodidad adicional de hacerlo
en horarios que nos resulten cómodos y sin costos adicionales. La misma reflexión
merece la posibilidad de acceder a otro tipo de información como la que está en
Bibliotecas lejanas a nuestro lugar de residencia, cursos preparados para
implementarse “en línea”, información acerca de productos que nos interesan, etc.
Todo esto implica la generación de nuevas relaciones que, desde el punto de
vista regulatorio, no cuentan con una regulación adaptada. Dentro del ciberespacio o
mundo de Internet, existen normas que le son propias y que no han emanado de
autoridad legislativa alguna, ni nacional ni supranacional. Internet, en algunos
aspectos, se autorregula mediante prácticas que se van elaborando progresivamente
por grupos de usuarios que tratan de definir y difundir pautas de uso eficiente,
responsable o práctico. Se van generando usos habituales, que al resultar no
conflictivos, se siguen respetando y aceptando pacíficamente como “correctos”.
Pero, para algunas situaciones, este tipo de “autorregulación” no es suficiente.
Nace entonces, la necesidad de “regular Internet”, generando adhesiones tanto a favor
como en contra de hacerlo.
Junto a las teorías de que Internet es un nuevo campo a regular, existe a mi
criterio, una posición que si bien acepta la novedad de Internet, reconoce que muchas
de las conductas que se realizan en este ámbito, ya están contempladas en el derecho
argentino. Resta, sin duda, la tarea de revisarlas cuidadosamente a fin de ajustar lo
2 La autora es abogada, especialista en Derecho de Regulación Económica, Derecho de las Telecomunicaciones y Derecho Alta Tecnología.
Página 43 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
que fuera necesario o incorporar normas que cubran los vacíos que pueda haber.
Esta tarea, debería abarcar un estudio de lo relacionado con el control de
acceso a determinados contenidos en general, la libertad de expresión, la protección
de bases de datos, la defensa de los usuarios y consumidores en el entorno “on line”,
la validez jurídica de los documentos digitales, los delitos informáticos, la protección
jurídica del correo electrónico, la protección contra la correspondencia comercial no
solicitada y las políticas de promoción del acceso comunitario y hogareño, entre otros.
Independientemente de que esta tarea aparece como una actividad muy
amplia, reitero que a mi criterio no se debe regular todo lo relacionado con Internet,
solamente por lo novedoso de ésta frente al derecho vigente.
Argentina, así como los demás países, deberá revisar sus normas con un
criterio realista y prudente. En ese contexto, por ejemplo, se deberían aprobar normas
que incluyan algunas condiciones necesarias para realizar compras a través de
Internet, reglamentando la Ley N° 24.240 de defensa de los consumidores.
Asimismo se debería dotar de presupuesto apropiado y personal capacitado a la
Autoridad de Aplicación de la Ley N° 25.326, de protección de bases de datos, a fin de
que las tareas encomendadas a quienes deben velar por el resguardo de la información
personal, no devenguen ilusorias. Esta norma aún demanda mayor precisión en
relación con las exigencias de “seguridad” para los titulares de bases de datos y para
los mismos organismos del Estado, quienes, por cierto, conservan gran caudal de
información sumamente importante.
Estas son solo algunas de las modificaciones que deberían proponerse. Pero
hay un presupuesto que no ha de dejarse de lado: no es útil regular para una elite,
debe impulsarse y apoyarse una política seria de acceso universal a las Tecnologías de
la Información y la Comunicación.
Lamentablemente, los últimos años de historia Argentina, nos recuerdan que la
“brecha digital” no es la única que debemos superar, ni muchos menos la más urgente.
Pero dejar de lado el esfuerzo que se requiere para procurar que la mayor
cantidad de argentinos acceda al uso de las nuevas tecnologías, equivale a congelarnos
en la historia.
Página 44 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
VILLELLI, Fernando; Una aproximación hacia la Televisión Digital Terrestre (TDT). Documento de Cátedra. Buenos Aires, abril de 2006.
Una aproximación hacia la Televisión Digital Terrestre (TDT)
Introducción Cuando se enfrenta un tema como el de la Televisión Digital Terrestre (TDT)
muchos son los interrogantes que se presentan, dada la novedad del mismo, el
importante componente tecnológico que explica su aparición, y fundamentalmente
los intereses y perspectivas a nivel mundial que están puestos en juego.
En el presente artículo el objetivo es el de poder realizar un primer
acercamiento ante el objeto de estudio descripto, partiendo desde aspectos básicos,
ya sean propios del contexto en el cual se inscribe como de una primera explicación
técnica. A su vez, se propone como recorrido describir algunos casos de implantación
de este sistema como para dar un panorama más amplio sobre su desarrollo a nivel
mundial y contar con elementos para analizar posibles escenarios a presentarse en
Argentina.
La Televisión Digital Terrestre se constituye como el reemplazo de la
televisión tradicional y supone una transformación tan o más importante dentro del
medio como el que se dio en su momento con la introducción del color. En palabras
de Emili Prado, “la televisión digital terrestre (TDT) es un sistema de transmisión
digital que cabalga sobre la red de distribución de la televisión hertziana terrestre
analógica y puede ser recibido por medio de las mismas antenas con un pequeño
coste de adaptación”3.
Realizando un recorrido hacia atrás, el año 1982 podría definirse como un
primer puntapié sobre el tema debido a que el Comité Consultatif International des
Radiocommunications (CCIR), organismo devenido posteriormente en la Unión
Internacional de Telecomunicaciones (UIT), definió la recomendación ITU-R.BT.601
(anteriormente CCIR-601) para la digitalización de las señales de video en el Estudio.
A partir de entonces, el primer país que se lanzó decididamente hacia la
concreción de un estándar digital en transmisión fue Estados Unidos, en 1993, a
partir de la publicación de la norma ATSC (Advanced Television Systems Commitee),
3 PRADO, Emili; “Introducción. Virtudes, funciones y futuro de la TDT en la Sociedad de la Información”. En Revista Telos, N° 57, Octubre – Diciembre de 2003, pág. 1.
Página 45 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
creado por el consorcio surgido a través de lo que se dio a llamar “la gran alianza”, y
su posterior aprobación por la Comisión Federal de Comunicaciones (FCC) en 1996.
Dicho desarrollo se estableció a partir de una cobertura progresiva de los hogares
hasta alcanzar el 85% de capacidad de recepción en los mismos o hasta el 31 de
diciembre de 2006, fecha señalada como “apagón analógico”. Las transmisiones
comenzaron efectivamente a finales de 1998, meses antes del comienzo establecido
por la FCC (mayo de 1999).
Posteriormente, inició el mismo camino el consorcio conformado en Europa
por múltiples empresas fabricantes y broadcasters, conocido como DVB (Digital
Video Broadcasting), en 1993. Dos años más tarde, lanzó su propio estándar digital
que entre otras cuestiones, se diferenciaba con la estadounidense por integrar no
sólo al sistema de televisión digital terrestre, sino también al del cable, satélite y
posteriormente recepción móvil.
Por el momento, dicho recorrido lo completó el estándar japonés ISDB-T
(Terrestrial Integrated Services Digital Broadcasting), desarrollado por el grupo
DIBEG (Digital Broadcasting Experts Group) tomando la base del estándar europeo.
La carrera hacia la televisión digital, no obstante, podría explicarse como una
apuesta de los países centrales por asegurarse los mercados que resulten de la
aplicación de esta tecnología. En relación con esta disputa mundial por la hegemonía
del sector, se puede pensar en algunas consecuencias de índole económica que trae
aparejada la implantación de la Televisión Digital Terrestre, lo que permite entender
desde una mejor base argumental la cuestión en pugna.
La llegada de la televisión digital requiere ser vista desde una perspectiva
industrial, donde detrás de los Estados los actores que se movilizan por conquistar el
nuevo espacio de mercado generado son las empresas (en otro tipo de análisis
podría pensarse cuánto terreno es asegurado por los principales players del sector y
cuánto por nuevos actores que resulten de fusiones o que surjan como parte de la
oportunidad que se abre).
Así es como Emili Prado y Núria García explican que “el tránsito de un sistema
de televisión a otro supone una revolución para la industria electrónica
manufacturera de equipos de producción y difusión, y sobre todo la rama electrónica
de consumo, productora de equipos de recepción”4.
Para ilustrar con mayor claridad lo expresado por dichos autores, puede
recurrirse al consorcio de la norma ATSC estadounidense, que presenta un listado de
4 PRADO, Emili y GARCÍA, Núria; “La apuesta por los broadcasters y por la alta definición. Panorama de la TDT en los
Página 46 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
132 empresas asociadas, entre ellas los broadcasters ABC, CBS, NBC, CBC (Canadian
Broadcast Corporation), Televisa; y empresas de diversos sectores como DirecTV,
Dolby Laboratories Inc., France Telecom, News Corp., Nielsen Media Research,
Panasonic Corporation of North America, Samsung Electronics, SANYO Manufacturing
Corp., Sharp, Sigma, Sony, Sun Microsystems, Intel, JVC, Microsoft, Mitsubishi
Electric, Motorola, Time Warner Cable, Universal Studios, Toshiba, Zenith, entre
otros5.
En resumen, el avance y migración al sistema digital implica un reemplazo
tecnológico en todo el proceso televisivo, desde el momento de la producción, en el
momento de la difusión, como en el momento de la recepción. “Consiste por tanto en
digitalizar todo el proceso, lo que implica la renovación de las infraestructuras de
producción, la de los equipos de emisión y la de los equipos de recepción. Los dos
primeros capítulos van a cargo de los broadcasters y el último repercute sobre los
usuarios”6. Desde dicha perspectiva, no habría que dejar de lado la importancia del
mercado de patentes y derechos por su utilización.
Por otro lado, y para comentar otras consecuencias aparejadas a dicho
proceso, podría ser la configuración de un sector con una gran dinámica de
expansión económica, no sólo en términos de ingreso y producción, sino en términos
en la multiplicación de la ocupación y de la gran atracción de inversiones.
Más adelante se describirán el conjunto de ventajas asociadas a este cambio
tecnológico; no obstante y a modo introductorio podría decirse que la principal de
ellas es que la migración supone el camino más rápido de universalizar el proceso de
digitalización7.
En este sentido, queda marcada la principal función de la Televisión Digital
Terrestre, que es la de “asumir la prestación del servicio público de televisión, que
hasta ahora se cubre con tecnología analógica”8. Se trata de incluir al conjunto de la
población, en igualdad de condiciones, dentro del proceso más amplio denominado
Sociedad de la Información.
Especificaciones técnicas Para poder comprender un tema tan complejo, al menos a primera vista,
como el de la televisión digital terrestre es preciso contar con algunas nociones
Estados Unidos”. En Revista Telos, N° 57, Octubre – Diciembre de 2003, pág. 1. 5 Ver nómina completa en http://www.atsc.org/atscmembers.html. 6 PRADO, Emili y GARCÍA, Núria; op. cit., págs. 1-2. 7 PRADO, Emili; op. cit., pág.1. 8 Ibid.
Página 47 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
técnicas básicas que explican su funcionamiento y permiten comprender el conjunto
de ventajas que introduce. Para ello, el presente recorrido representa un recorte
simple de un panorama técnico mucho más complejo9.
En principio, se pueden destacar algunos aspectos del sistema analógico que
sirvan de base para comprender el cambio. Uno de ellos es el que remite al
funcionamiento por normas. El segundo remite a parámetros comunes de televisión
analógica y el tercero se trata de la diferencia entre formatos de definición.
En cuanto a las normas definidas dentro de la televisión analógica
encontramos, por un lado, aquellas que se conformaron como sistemas de televisión
color, las cuales pueden enumerarse de acuerdo a un orden cronológico de
aprobación: NTSC (National Television System Committee, 1950, Estados Unidos);
PAL (Phase Alternating Line, Alemania, 1961); SECAM (Sequential Couleur Avec
Memoire, Francia, 1967).
Por otro lado, se estableció otro tipo de norma para establecer los anchos de
banda a ser utilizados en cada país. Ellos son:
- Normas M / N: establecen bandas de frecuencia de 6 Mhz. Y fueron adoptadas por la mayoría de los países americanos.
- Norma B / G: la primera establece canales de 7 Mhz., mientras que la segunda define bandas de 8 Mhz. La mayoría de los países europeos, algunos de Africa, Asia y de Oceanía adoptaron la primera para las bandas VHF (entre 30 – 300 Mhz) y la segunda para las bandas UHF (entre 300 – 3000 Mhz).
- Normas I, D, K y L, establecen canales de 8 Mhz. Fueron adoptadas por Francia, Inglaterra, China entre otros países.
Lo importante de este aspecto a destacar es la recurrencia a la configuración
mundial del sistema televisivo mediante normas, con todas las implicancias que
pueden inferirse de ellas (barreras de mercado, mecanismo de poder, etc.)
Respecto al segundo punto, los tres sistemas (NTSC, PAL, SECAM) contienen
entre sus principales parámetros:
- El barrido entrelazado, el cual se constituyó en la forma de compresión de la señal dentro del sistema analógico. Según el Ing. José Simonetta, “el barrido entrelazado (…) consiste en barrer cada cuadro dos veces” 10 . La imagen se desarrolla cuadro por cuadro. El efecto del entrelazado se trata de dividir cada cuadro en dos mitades verticales que se exploran por separado y luego se entrelazan para devolver a la imagen su unidad. A diferencia del
9 Se trata de un campo de estudio propio de la ingeniería que escapa, por su complejidad, a los intereses de una disciplina como la comunicación. 10 SIMONETTA, José; Televisión Digital Avanzada. Primera Edición. Buenos Aires, Intertel, 2002, pág. 3.
Página 48 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
barrido progresivo (barrer el cuadro sin dividirlo) el barrido entrelazado contiene algunos problemas de definición, sobre todo en las imágenes en movimiento. Sin embargo, su implementación significa reducir en un 50% el ancho de banda para su transmisión. Con la televisión digital, el concepto de barrido ha cambiado, adoptándose en algunos formatos el progresivo.
- La relación de aspecto, “es la relación entre la base y la altura de la imagen (…) midiéndose el tamaño de la pantalla en pulgadas de la diagonal” 11. La relación estándar definida es la de 4 de base x 3 de altura (4:3). A partir de la aparición de la Televisión de Alta Definición, dicha relación cambió a 5:3 (NHK*, 1968), luego modificada a la relación cuadrática de 16:9 (1984, SMPTE – Society of Motion Picture and Televisión Engineers) * Nippon Hoso Kiokai.
Por último, es importante diferenciar la televisión de definición estándar
(SDTV) de la televisión de alta definición (HDTV). Ambos formatos se diferencian en
cantidad de líneas por cuadro y en relación de aspecto:
- La televisión de definición estándar está compuesta por 625 líneas, con barrido entrelazado, y su relación de aspecto es de 4:3.
- La televisión de alta definición está compuesta por 1125 líneas, con barrido entrelazado. La relación de aspecto originalmente fue de 5:3, devenido posteriormente en los 16:9 ya comentados.
Una vez comentados los principales aspectos de la televisión analógica, se da
paso al proceso básico de la transmisión de una señal digital.
Figura N°1 – Proceso Básico para la transmisión de una señal digital12
En primer lugar, es necesario contar con una señal digital para iniciar el
proceso de transmisión digital. La misma puede ser obtenida de dos maneras: a
través de la conversión de la señal analógica a la digital; y a través de la generación
de la señal digital en un estudio de televisión digital.
Una vez obtenida la señal digital a transmitir se presenta un problema básico,
como es el alojamiento de dicha señal en el actual ancho de banda analógico. Esto es
11 SIMONETTA, José; op. cit. pág. 5. 12 Extraído de SIMONETTA, José; op. cit., pág. 125.
Página 49 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
debido a que una señal digital en definición estandarte 270 Mbps (Megabits por
segundo) requiere un ancho de banda de aproximadamente 80 Mhz, más de 13
veces la capacidad de transmisión de una banda de 6 Mhz como el establecido en
Argentina. En el caso que se trate de una señal de alta definición de 1,48 Gigabits
por segundo, el ancho de banda requerido ascendería a 440 Mhz; es decir, lo que
ocupan actualmente 73 canales analógicos.
Para sortear dicho obstáculo se dispone del proceso de compresión (el
sistema más utilizado es el MPEG-2). Simonetta explica que “mediante la
compresión, se logra ocupar menos ancho de banda que la misma señal original sin
comprimir. En transmisión, la compresión permite la emisión de señales digitales,
por el mismo espectro que ocupa un canal analógico actual”13. Cabe aclarar que el
sistema de compresión varía de acuerdo con el tipo de dato a comprimir, sea por
ejemplo, audio o vídeo.
En cuanto a la compresión resta por decir que la calidad en la imagen queda
vinculada estrechamente a la relación de compresión utilizada, siendo la calidad
inversamente proporcional cuanto mayor es la relación de compresión utilizada.
No obstante, si la señal digital fue comprimida adecuadamente, la calidad de
imagen será muy buena pues, a diferencia de la señal analógica, no tiene ruido ni
interferencias. Además, no sólo permite transmitir una señal digital en definición
estándar, sino varias por el mismo ancho de banda.
De hecho, sólo con la compresión pueden emitirse tres o cuatro señales,
dependiendo los contenidos combinados. Sin embargo, a fin de maximizar esta
posibilidad se recurre al multiplexado estadístico. Una mejor definición al respecto la
brinda el ya mencionado especialista: “para aprovechar aun más la capacidad de
programas de SDTV a emitir se recurre al multiplexado estadístico. En efecto, este
tipo de multiplex aprovecha el análisis de los contenidos de cada programa, para fijar
la velocidad binaria en ese instante, para cada uno de ellos (…) el multiplexado
estadístico permite incrementar la capacidad de programas a transmitir entre un
20% y un 25% sin aumentar el ancho de banda”14.
Luego, dichas señales son moduladas y transmitidas por alguno de los medios
de transmisión establecidos y recibidas, cumpliendo con el camino inverso al
descripto y devolviendo el conjunto de señales digitales emitidas en origen.
13 SIMONETTA, José; op. cit., pág.107. 14 SIMONETTA, José; op. cit., pág. 122.
Página 50 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Ventajas de la Televisión Digital Terrestre En el comienzo se comentó que la principal ventaja de la Televisión Digital
Terrestre era justamente universalizar de manera más rápida los beneficios de la
digitalización (el acceso a través de los servicios de internet es, aun en la actualidad,
restrictivo para una gran mayoría por su costo y su dificultad técnica). ¿Cuáles son
esos beneficios que la televisión digital terrestre presenta?
• Mejor calidad de imagen y sonido. La señal digital no tiene ruido ni interferencias,
lo cual permite, incluso en SDTV mejorar la calidad tanto de la imagen como del
sonido.
• Multiplicidad de programas de SDTV en el mismo ancho de banda. Partiendo de
un ancho de banda de 6 Mhz pueden transportarse varios programas en SDTV,
dependiendo la cantidad de señales de la relación de compresión utilizada y ésta,
a su vez, del tipo de contenido a emitir. Pues en programas con resolución de
movimientos rápidos la compresión no puede ser igual que en otro tipo de
contenidos, más estático.
Figura N°2 – Posibles combinaciones de transmisión digital15
• Señal de HDTV en el mismo ancho de banda. La relación de compresión aumenta
pero mantiene la calidad para dicho formato.
• Transmisión de datos multimedia – servicios de interactividad. Se puede pensar
en servicios de Internet, vídeo a la carta, juegos interactivos, mensajes, banca
electrónica, compras electrónicas, compatibilidad con distintos artefactos
electrónicos como computadoras, cámaras digitales de foto y de vídeo, etc.
• Recepción móvil (sólo normas DVB-H / ISDB-T). Permite la oferta de servicios de
televisión para receptores móviles.
Página 51 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
• Redes de frecuencia única (sólo normas DVB-T / ISDB-T). Posibilita emplear
repetidoras que transmiten y reciben señales por la misma frecuencia.
Algunos interrogantes sobre el modelo de TDT a configurarse en Argentina
El caso argentino presenta características recurrentes, al menos desde el
aspecto regulatorio, a la de otros proyectos a desarrollarse que por diversos
caprichos de la historia se vuelven de compleja resolución. En el caso concreto de la
televisión digital, el gobierno de Menem estableció en febrero de 1998 el estudio y
análisis de las normas estadounidense y europea (ATSC y DVB-T, respectivamente),
a través de la resolución de la Secretaría de Comunicaciones 433/98; con el fin de
iniciar el camino de la adopción de la norma tecnológica e implantación y desarrollo
del servicio de televisión digital.
Unos meses más tarde, en octubre de ese año, se decidió finalmente por la
norma ATSC (resolución 2357/98). Los argumentos para llegar a tal conclusión
fueron, entre otros: “Que el estándar ATSC ofrecería mejores posibilidades en su
adaptación a la actual estructura ordenativa de los sistemas de televisión de alcance
nacional como así también, para el período de convivencia con los sistemas
analógicos actuales y la posterior transición definitiva a los sistemas digitales. (…)
Que por otra parte existen receptores disponibles para su comercialización en el
mercado internacional en el estándar ATSC, mientras que en el estándar DVB-T la
provisión de televisores se encuentra limitada en la actualidad a anchos de banda de
7 u 8 MHz.”16.
El aparente consenso mostrado por los principales interesados en la adopción
de dicha norma (principalmente Canal 13 y Canal 11, que participaron de la
audiencia pública en la que se opinó y analizó dicha decisión), al día de hoy no es tal,
lo que posibilitó la dilación del tema. De hecho, para esa época obtener la definición
de la norma de televisión digital significó colocarse entre los primeros países de la
región, e incluso a nivel internacional, en lograr tal avance.
Sin embargo, y a pesar de la antelación presentada, aun el país no ha
avanzado en el desarrollo de tal tecnología. Incluso en la actualidad todavía se
debate una revisión de tal elección, junto con las permanentes visitas de las
delegaciones de las distintas normas con el fin de inclinar la balanza. Las
especulaciones rondan sobre la decisión que Brasil tome en dicho ámbito (su
15 Extraído de SIMONETTA, José; op. cit., págs. 116, 118 y 119. 16 Resolución 2357/98 de la Secretaría de Comunicaciones.
Página 52 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
ministro de comunicaciones se inclinaría por aquella que le reditúe mayores
beneficios comerciales e industriales), aunque no es seguro que Argentina siga los
pasos de su principal socio en el Mercosur.
A modo de conclusión, se proponen brevemente algunos interrogantes que
pueden ser considerados claves a la hora de discutir y configurar el sistema de
televisión digital terrestre en el país:
• La convergencia de servicios, dentro de un contexto marcado por la competencia
entre sistemas o plataformas de transmisión, como lo muestra por ejemplo el
mercado español a través de las ofertas de la televisión digital terrestre, el
servicio de ADSL, la televisión satelital, la televisión por Cable y la televisión por
telefonía móvil17.
• El modelo de financiación por abono dentro del mercado de televisión hertziana,
lo cual supondrá una complementariedad entre los diferentes tipos de
financiación: publicidad, abono y en algunos países el canon.
• El monto de inversiones necesario para el desarrollo de la televisión digital
terrestre. Entre ellas, la renovación de las redes de transmisión, la producción de
nuevos contenidos y servicios atractivos para los posibles usuarios, la promoción
y el marketing para mejorar dicha oferta y la adquisición de los aparatos
receptores digitales o los set top box (conversores A/D) por parte de los usuarios.
• La configuración del nuevo mercado en términos de actores. En el caso de
Estados Unidos se optó por mantener la posición dominante de las cadenas
vigentes; mientras que en España se optó por el ingreso de un nuevo operador
por concurso para el servicio de acceso pago.
• La cuestión de la calidad, a partir de las ventajas introducidas por el nuevo
sistema (ya sea por una mayor oferta de contenidos -a través del SDTV- o por
una mejor definición de imagen –a través del HDTV-). ¿Qué debe resguardarse
para garantizar una mejor calidad del servicio a los ciudadanos?
• En relación con los puntos anteriores, ¿qué puntos o aspectos debería incluir una
nueva regulación en materia de radiodifusión?
• Sin duda, el esclarecimiento de dichos interrogantes pueden brindar una mayor
cantidad de herramientas para tener en cuenta a la hora de realizar un debate
sobre un tema aun oscuro y sin definición a la vista.
17 ESTUDIO DELPHY; “Análisis prospectivo acerca del futuro de la reforma audiovisual. Amplio consenso sobre la transición digital”, en FUNDACION TELEFONICA; Medios de Comunicación. El año de la televisión digital, Madrid, 2006, págs. 337-351.
Página 53 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
ESTUDIO DELPHY; “Análisis prospectivo acerca del futuro de la reforma audiovisual. Amplio consenso sobre la transición digital”, en FUNDACION TELEFONICA; Medios de Comunicación. El año de la televisión digital, Madrid, 2006, pp. 337-351.
Análisis prospectivo acerca del futuro de la reforma audiovisual.
Amplio consenso sobre la transición digital
DURANTE EL AÑO 2005, SE HA MODIFICADO sustancialmente el marco normativo
que regulaba el sector audiovisual teniendo en cuenta las distintas tecnologías y formas
de difusión de la señal. El denominado Plan de Reforma del Sector Audiovisual pretende
establecer las condiciones óptimas para abordar el reto de la transición de la tecnología
analógica a la digital. Por tanto, su contenido describe la forma en que tendrá lugar el
periodo previo a la obligada emisión en formato digital. Asimismo, incluye medidas que
afectan al periodo posterior al cese de las señales analógicas.
El año 2010 es la fecha prevista para que finalice el periodo de transición hacia la
televisión digital. Hasta la llegada de esa fecha, hay previsto un calendario que marca la
adaptación de los operadores a la nueva tecnología. De este modo, sería muy oportuno
evaluar las posibles consecuencias y acontecimientos que derivarán de la aplicación de la
reforma y realizar un análisis prospectivo que permita el diseño del escenario del
audiovisual en la fecha del apagón analógico.
Este propósito es el que justifica la elaboración de un estudio prospectivo a incluir
en el presente informe, Medios de Comunicación/Tendencias 2006. Los datos que serán
expuestos en este capítulo resultan de una investigación diseñada según la metodología
Delphi18.1Si bien el objetivo principal consiste en reducir el nivel de incertidumbre sobre
la evolución del audiovisual tras el cambio normativo, en la relación de temas a tratar se
ha incluido una breve evaluación del pasado más reciente del sector en España. De esta
forma, iniciamos la exposición de los principales resultados del estudio con un diagnóstico
de la evolución del medio televisivo hasta el periodo desde el que se desea considerar su
futuro desarrollo.
18 La metodología aplicada ha consistido en un proceso de interacción con un grupo de 65 expertos. Los miembros del panel han sido consultados en dos ocasiones. En la primera ronda de consultas, se han planteado diversas cuestiones relacionadas con la previsible evolución que experimentará el medio audiovisual en los próximos años. La segunda ronda de consultas ha tenido la finalidad de incrementar la homogeneidad de las respuestas que presentaban menor consenso en el grupo. Las preguntas han estado orientadas a conocer el nivel de probabilidad que estiman los expertos consultados sobre la ocurrencia de algunos acontecimientos, o bien la importancia que tendrán determinadas variables en el futuro mapa audiovisual.
Página 55 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Evolución histórica de la televisión En el año 1956, comienzan a emitirse los primeros programas de televisión en
España. La evolución histórica experimentada desde entonces ha estado marcada por
distintos acontecimientos y cambios de diversa naturaleza que han influido tanto positiva
como negativamente para la configuración del escenario actual. En este sentido, los
miembros del panel de expertos han sido consultados sobre los acontecimientos que
mejor explican la situación a la que llega el medio televisivo al año 200519.
En primer lugar, es preciso diferenciar los cambios exógenos al sector, y cuya
influencia supera la definición del audiovisual, de aquellos cambios específicos del medio
televisivo. Así, los cambios políticos, económicos y culturales que experimenta nuestro
país durante la transición democrática han sido señalados como causas facilitadoras de
una modernización del medio en España. Si bien a nivel político la transición democrática
garantiza la libertad de prensa y la pluralidad de la información, a nivel cultural el país
experimenta una transformación que propicia la renovación de contenidos y la oferta
televisiva. Por otra parte, la mejora de la capacidad adquisitiva y la distribución de la
renta han posibilitado la consolidación de un mercado publicitario que supone la principal
fuente de financiación de la televisión.
El ingreso en la Unión Europea es fundamental para explicar la transformación
sociocultural y económica que ha experimentado nuestro país. Además, y de manera
específica, la normativa europea de televisión ha proporcionado un marco de referencia
para la adaptación de las políticas audiovisuales.
Por otra parte, existen acontecimientos de la historia propia de la televisión que
han sido considerados especialmente positivos para el medio. En este sentido, las
respuestas han estado muy concentradas en torno a la creación de la televisión privada,
la oferta autonómica y la evolución tecnológica que experimenta la televisión (tabla 1).
En el año 1988, se reguló la posibilidad de gestionar de manera indirecta el
servicio público esencial de la televisión a través de la Ley 10/98, de 3 de mayo. Este hito
histórico ha sido el hecho considerado más favorable, por el efecto dinamizador del
sector, el aumento del pluralismo y su influencia sobre la profesionalización del medio.
La competencia generada con la introducción de operadores privados
complementa el mapa audiovisual de la televisión analógica del que forman parte los
canales autonómicos. Precisamente, la Ley 46/1983, de 26 de diciembre, reguladora del
Tercer Canal de Televisión es referida como uno de los cambios normativos más
beneficiosos para la televisión en España. La citada norma reguló la aparición de los
19 De manera específica, se ha preguntado por los tres acontecimientos cuyo impacto considera más positivo y aquellos tres cuyo impacto considera más negativo. Las preguntas se han formulado de manera abierta. Es decir, no se ha facilitado ninguna relación de respuestas sobre las que elegir.
Página 56 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
respectivos programas autonómicos que desarrollan la descentralización de la gestión del
servicio público de televisión dando respuesta a la diversidad cultural e informativa del
país.
Además de los cambios legislativos que han favorecido la aparición de una oferta
diversa de televisión analógica, la evolución tecnológica del medio ha supuesto una
auténtica transformación de la oferta audiovisual. La digitalización de la señal ha
posibilitado multiplicar la capacidad del espacio radioeléctrico, la mejora de la imagen que
recibe el usuario, la aparición de la televisión de pago y las distintas fórmulas de
comercialización que ha utilizado, y convertir al televisor en un terminal que facilita el
acceso a servicios interactivos.
Asimismo, la irrupción de la tecnología digital ha diversificado los sistemas de
transmisión disponibles. A lo largo de la década de los noventa, han aparecido ofertas de
televisión vía satélite, cable y ondas terrestres. Además, la televisión vía ADSL y
tecnología móvil está comenzando a llegar a los primeros usuarios.
Tabla 1 - Acontecimientos destacados de manera positiva en la evolución de
la televisión
Los acontecimientos históricos cuyo impacto se considera más positivo
1. Concesión del servicio público a operadores privados
2. La evolución de la tecnología del medio
3. La aparición de las televisiones automáticas
Otros acontecimientos señalados de manera significativa
1. El nivel profesional alcanzado y la creación de los estudios universitarios de
Comunicación Audiovisual
2. La reforma de los medios de titularidad estatal
3. La creación de un Consejo Audiovisual estatal
Los cambios tecnológicos también han influido en la producción de los contenidos.
La inmediatez del medio y la mejora de la calidad del resultado suponen claros ejemplos
de ello.
Existen otros acontecimientos señalados por parte de los expertos que merecen
ser destacados en un segundo grupo de respuestas que con mayor frecuencia han sido
elegidas. En primer lugar, el nivel profesional característico de la televisión. En este
sentido, la creación de los estudios universitarios de Comunicación Audiovisual ha sido
señalada como uno de los factores críticos para explicar el nivel de capacitación de los
profesionales empleados en el sector audiovisual.
Página 57 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Por último, existen dos hechos muy recientes que han sido considerados muy
positivos, aunque sus efectos se deben de producir en un marco temporal futuro. Uno de
ellos ha sido la constitución del Comité de Expertos para la Reforma de los Medios
Públicos y las posteriores reformas elaboradas con el objetivo de modificar el actual
modelo de televisión pública. El segundo consiste en la regulación que permitirá disponer
de un Consejo Audiovisual de carácter estatal que suponga una autoridad independiente
que vigile el cumplimiento de la normativa audiovisual y procure la adecuación de los
contenidos.
Los dos últimos motivos señalados significan una respuesta reciente a algunos de
los problemas estructurales considerados por los expertos como aspectos más negativos
que han resultado de la evolución de la televisión en España (tabla 2).
Tabla 2 - Acontecimientos cuyo impacto se considera más negativo en la
evolución de la televisión
1. Un marco normativo fraccionado y confuso
2. La calidad de las ofertas de contenidos
3. El modelo de televisión pública y su falta de independencia
4. La situación normativa de la televisión local
5. Ausencia de una autoridad independiente
6. Ritmo de la implantación de la televisión digital terrestre
En este sentido, las personas consultadas han destacado la indefinición del
modelo de televisión pública como uno de los hechos más negativos del panorama
audiovisual. Tal circunstancia tiene que ver sobre todo con la acusada falta de
independencia de los medios de titularidad estatal y el endémico sistema de financiación.
La intervención política en la televisión pública ha supuesto una situación característica
de la evolución histórica de los medios de comunicación en España. Existe un elevado
nivel de consenso al afirmar que el control gubernamental ha condicionado la obligación
de servicio público. Por otra parte, el modelo de financiación mixta ha generado malos
resultados económicos cuantificados en la cifra que corresponde al déficit acumulado.
Además, ha sido señalado como un factor de distorsión del mercado publicitario
denunciado por los operadores privados.
La visión de la televisión pública explica el nivel de aprobación que ha recibido la
reforma iniciada con los trabajos del Comité de Expertos para la Reforma de los Medios
Públicos y plasmada en el Proyecto de la Ley del Servicio Público de Radio y Televisión de
Titularidad Estatal (tabla 1).
Página 58 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Por otra parte, existe un alto nivel de acuerdo a la hora de señalar la inexistencia
de un Consejo Audiovisual como una de las carencias más acusadas del sector. Este
hecho es considerado como una de las principales causas de la difusión de contenidos no
conformes con la misión de servicio público y el incumplimiento de normas que afectan al
tiempo destinado a la publicidad o a la protección de grupos minoritarios. Esta opinión
justifica la valoración positiva que recibe el Proyecto de Ley de Creación del Consejo
Estatal de los Medios Audiovisuales.
De las características negativas del panorama audiovisual señaladas por el grupo
de expertos, destaca de manera sobresaliente la crítica realizada al marco normativo que
se ha ido configurando conforme han aparecido nuevos soportes y formas de distribución
de la televisión. El marco normativo ha estado caracterizado por la atomización de la
legislación y la diferenciación entre el servicio de televisión y el resto de los servicios de
telecomunicaciones. El resultado ha sido una legislación confusa y formada por
regulaciones diferentes para el servicio de tele visión. Así, el medio ha acusado el retraso
de la aparición de una normativa homogénea y uniforme que se adapte a las nuevas
condiciones que corresponden a un escenario de convergencia entre los medios de
comunicación y las telecomunicaciones.
En el plano normativo, es necesario destacar el efecto negativo que ha tenido la
regulación del sector en el desarrollo de la televisión local. Gran parte de la oferta
diseñada en el ámbito local se ha desarrollado en situación de alegalidad debido a las
lagunas normativas que han existido.
El grupo de expertos considera que la calidad de los contenidos de la televisión
puede considerarse uno de los mayores fracasos que ha protagonizado el medio. El
aspecto más negativo de la concesión del servicio público de televisión a operadores
privados ha sido la escasa aportación a la mejora de la calidad de los programas y la
aparición de la denominada “televisión basura”. De manera relacionada con la baja
calidad de los contenidos y el incumplimiento de la normativa que afecta a los mismos, es
preciso señalar el escaso resultado del acuerdo para el Fomento de la Autorregulación
sobre Contenidos Televisivos e Infancia.
Por último, el ritmo de implantación de la televisión digital terrestre ha sido lento.
Si bien la normativa española de la TDT fue pionera, siendo España el tercer país de la
Unión Europea en abordar su regulación, los resultados de su aplicación han sido poco
satisfactorios. En 1998, se elabora el Plan Tecnológico Nacional para la Televisión Digital
Terrestre, que establece las pautas para la repartición del espectro y los plazos para la
implantación de la TDT a nivel nacional, regional y local. La primera licencia de TDT en
España se concedió en 1999 a Retevisión, para la explotación de 14 canales bajo la
marca comercial de Quiero TV. Sin embargo, su actividad únicamente se prolongó hasta
Página 59 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Página 60 de 94
el año 2002. El freno de la televisión digital terrestre ha precedido a un periodo de escasa
actividad en el que ha estado infrautilizado el espacio radioeléctrico otorgado a Quiero TV
y han fracasado los modelos de negocio elaborados por la industria de equipos receptores
para los hogares.
Las conclusiones comentadas se confirman con las respuestas recogidas en la
tabla 3. En la misma, se recoge el análisis de algunos aspectos característicos de la
televisión, pudiéndose apreciar dos grupos de aspectos que se distinguen por su
valoración positiva o negativa20.
Existe un juicio claramente negativo referido a los aspectos evaluados que tienen
que ver con la oferta de contenidos de la televisión y el cumplimiento de la misión de
servicio público que asume. De esta forma, existe insatisfacción con respecto al rol que
ha desempeñado la televisión como medio socializador y cultural, y la responsabilidad
social asumida por el medio. Igualmente, los contenidos que han caracterizado las
programaciones de las distintas ofertas es un motivo de insatisfacción para los expertos
consultados que acusan la escasa objetividad e independencia de los medios.
En sentido contrario, existe un juicio favorable en cuanto a los resultados
obtenidos en los aspectos de carácter técnico y económico. La televisión ha ejercido un
impacto satisfactorio sobre la industria audiovisual y ha supuesto un factor de desarrollo
de las productoras de contenidos de nuestro país. Igualmente, el auge de la competencia
en el mapa del audiovisual ha significado un efecto beneficioso para la mejora del nivel
profesional existente en el medio. Por último, se destaca la capacidad que tienen los
operadores para adaptarse a los cambios tecnológicos que han condicionado la evolución
del medio televisivo. En definitiva, existe un nivel de satisfacción con respecto a los
resultados referidos a la dimensión económica y tecnológica de la televisión que mejora
la opinión que merecen los logros en materia sociocultural y política (gráfico 4).
20 La información recogida en la tabla 3 y similares, se refiere tanto al valor que coincide con la mediana (señalizado mediante una línea vertical) y el valor medio (representado numéricamente), como el recorrido intercuartil que expresa el nivel de dispersión en las respuestas (representado por la trama de color).
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Página 61 de 94
rada – Cátedra Dr. Henoch Aguiar 07 – 1er. Cuatrimestre
Página 62 de 94
Legislación Compa20
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
El marco normativo de la reforma audiovisual El diagnóstico realizado sobre la evolución de la televisión en España explica la
existencia de algunos problemas estructurales del sector tales como el posicionamiento
de la televisión pública o el atraso en el proceso de transición previo al apagón analógico.
Estos motivos han propiciado una reforma del audiovisual que tuvo su punto de arranque
en 2004 y que se define a lo largo de 2005 con la aprobación de una ley y dos
reglamentos técnicos (gráfico 5) y el envío a las Cortes de tres proyectos de ley.
Aspectos acerca de los cuales se da amplia información y valoración en otros apartados
de este informe.
El 29 de diciembre de 2004 es aprobado el Plan de Impulso de la Televisión
Digital Terrestre, de Liberalización de la Televisión por Cable y del Fomento de la
Pluralidad de Contenidos. Este plan incluye un proyecto de Ley de Medidas Urgentes con
el objetivo de disponer de un marco legal que facilite el impulso de la TDT, así como
modificar las restricciones que afectan a la competencia en el servicio de televisión por
cable y la eliminación de las existentes para la difusión en analógico. El proyecto fue
aprobado en el mes de junio de 2005, entrando en vigor la Ley para el Impulso de la
Televisión Digital Terrestre, Liberalización de la Televisión por Cable, y Fomento del
Pluralismo21.
Además, el Plan elaborado por el Gobierno contempla la necesidad de modificar el
Plan Técnico Nacional de Televisión Digital, asignar nuevos programas de televisión
digital terrestre de cobertura estatal, adelantar el apagón analógico e introducir cambios
en la Ley de Televisión Privada.
En definitiva, la reforma del audiovisual ha significado una renovación del marco
normativo, que modifica las condiciones en que actúan operadores privados y públicos,
analógicos y digitales, ha establecido el calendario que marcará la transición a la
digitalización definitiva del medio y propicia la creación de un Consejo Audiovisual de
ámbito estatal.
21 La nueva norma modifica la Ley 41/1995 de 22 de diciembre de la Televisión Local por Ondas Terrestres, fue limitaba a uno el máximo de programas de televisión pública local en cada una de las demarcaciones, y pasa a dejar en manos de las comunidades autónomas la decisión de fijar el número de televisiones locales públicas que estimen oportuno en cada demarcación, y se pueda excepcionalmente aumentar hasta dos el número de programas gestionados garantizándose al menos una. También modifica la Ley 32/2003 General de Telecomunicaciones, que fija el 31 de diciembre como fecha para la liberalización de los servicios de difusión de radio y televisión por cable, restringiendo a dos los operadores por demarcación, y el proyecto dice que se hará efectiva la liberalización de este servicio cuando se apruebe el reglamento de difusión de radio y televisión por cable. Además, se elimina la restricción a tres operadores que fija el texto de la Ley 10/1998, de 3 de enero, de Televisión Privada.
Página 63 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
El futuro escenario del sector audiovisual La lectura del gráfico 5 muestra la revisión de toda la normativa aprobada durante
el año 2005 dentro del marco de la reforma del audiovisual y ofrece una visión de la
importante transformación prevista para el sector en nuestro país. En este sentido, nos
disponemos a presentar los resultados de la prospección realizada, al objeto de analizar
cuáles serán los principales cambios que acontecerán en los próximos años y que
condicionarán los distintos escenarios posibles para el año 2010, fecha del apagón
analógico.
En primer lugar, es necesario destacar algunas características del contexto en que
se desarrollará la aplicación de la reforma audiovisual. En este sentido, el medio
Página 64 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
televisivo abordará el periodo de transición a la televisión digital en un contexto de
crecimiento del gasto de los hogares españoles en productos audiovisuales
(equipamientos, suscripciones, pagos por visión, etcétera) y el nivel de penetración de la
banda ancha (gráfico 6).
6. Estimación del gasto en productos audiovisuales y nivel de penetración de la banda ancha
26,7
8,9
43,3
17,9
61,5
23,2
0
10
20
30
40
50
60
70
2006-2008 2009-2010 2011-2012
Incremento del gasto de los hogares Porcentaje de penetración en productos audiovisuales respecto de la banda ancha
a los valores actuales
Según la consulta realizada al grupo de expertos que conforman el panel, el gasto
de los hogares en productos audiovisuales experimentará un crecimiento continuado
durante los próximos años22. La cantidad empleada para la contratación o compra de
productos audiovisuales en 2010 será un 17,3 por ciento mayor que la actual, y
continuará una tendencia creciente en los años siguientes al apagón analógico.
Por otra parte, la banda ancha estará en casi la mitad de los hogares españoles
una vez alcanzado el año 2010 (43 por ciento). A medio plazo, en el periodo temporal
200608, la cuarta parte de las viviendas tendrá conexión de calidad. Si bien el porcentaje
de penetración de la banda ancha en España a finales de 2004 era el 20 por ciento, es
22 Una valoración de este incremento lo representa la media grupal que se obtiene de las estimaciones formuladas por los expertos que han sido consultados en el trabajo.
Página 65 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
previsible un lento crecimiento del número de titulares de accesos de líneas de banda
ancha en los años inmediatos, seguido de un nuevo impulso de la demanda de este tipo
de conexiones23.
En el contexto económico definido, los acontecimientos que tendrán lugar en el
sector audiovisual a medio y largo plazo vienen explicados tanto por cambios normativos
como por cambios tecnológicos. Las modificaciones de las leyes que afectan al servicio de
televisión van a tener como consecuencia la transformación de los medios públicos de
titularidad estatal, la creación de un Consejo Audiovisual y la multiplicación de la oferta
de televisión como resultado de la transición digital.
Por su parte, el desarrollo tecnológico va a propiciar la aparición o la consolidación
de nuevos sistemas de difusión y cambios en las formas de uso y consumo de los
servicios de televisión que se caracterizarán por un mayor nivel de interactividad. El
desarrollo de los cambios previstos será gradual y éstos se irán sucediendo a lo largo de
todo el periodo previo al apagón analógico.
Para analizar la transformación que se producirá en los próximos años,
diferenciamos un primer periodo temporal que dura desde 2006 hasta 2008 y un segundo
cuya duración se prolonga hasta 2010. Así, los expertos han sido consultados de manera
explícita por los cambios más importantes que se producirán en el sector audiovisual en
cada uno de los dos periodos temporales. El resultado de esta consulta identifica los
acontecimientos representados en el gráfico 7. A continuación, vamos a considerar cómo
tendrán lugar esos acontecimientos.
23 Esta estimación es similar a las previsiones realizadas por la consultora Forrrester Research que pronostica un crecimiento lento del número de conexiones de banda ancha hasta el año 2008 para pasar a un nuevo periodo de expansión del mercado a partir de esa fecha. La misma consultora realiza una previsión del nivel de penetración de la banda ancha en nuestro país del 38 por ciento para el año 2010, cifra próxima a la obtenida mediante la metodología empleada en nuestro estudio (43 por ciento). Asimismo, cifra esta estimación en el 62 por ciento para el caso de los hogares a nivel europeo. Este nivel de penetración es el que estimamos que existirá en nuestro país al finalizar el periodo 2011-12.
Página 66 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Tabla 7 - Acontecimientos previsibles en el escenario temporal 2006-2010
Escenario 2006 - 2008
1. Reforma de la televisión pública. Modelo de gobierno, forma jurídica y sistema de
financiación.
2. Creación del Consejo Estatal de los Medios Audiovisuales.
3. Incremento significativo de la oferta de televisión:
3.1 Emisión en abierto de la concesión en análogo de Sogecable (Cuatro)
3.2 Concesión de un cuarto canal analógico (La Sexta)
3.3 Inicio de la televisión digital terrestre, concesión de canales autonómicos
locales
3.4 Consolidación de la oferta de la televisión de pago existente
3.5 Aparición de nuevas formas de televisión de pago vía ADSL (Imagenio) y
tecnología móvil
Escenario 2009 - 2010
Apagón analógico. Definitiva configuración de la oferta de la televisión digital
terrestre.
1. Modificación de los modos de consumo de la televisión:
1.1 Usuario activo frente a una televisión a la carta. Autoprogramación de
contenidos.
1.2 Relativización del poder mediático de la televisión
1.3 Cambios en los sistemas de medición de audiencias
1.4 Fragmentación de la audiencia y del mercado publicitario
2. Convergencia con otros medios
2.1 Consolidación de la oferta comercializada por Internet y tecnología móvil
2.2 Televisión más interactiva
Reforma de la televisión pública y creación del Consejo Audiovisual Según los expertos consultados para el presente estudio, durante los primeros
años posteriores a la reforma del audiovisual, acontecerá la reforma de RTVE según el
Proyecto de Ley del Servicio Público de Radio y Televisión de Titularidad Estatal. La
transformación del ente público planificada debería cambiar distintos aspectos de la
televisión pública relacionados con el modelo de dirección, programación de contenidos,
sistema de financiación y forma jurídica.
El nivel de éxito en la transformación de los distintos aspectos de la televisión
pública no va a ser el mismo. En este sentido, los expertos han sido consultados por la
probabilidad de que acontezcan cambios positivos y relacionados con distintas
Página 67 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
características de la actividad propia de RTVE (tabla 8). Si bien el nivel de optimismo
sobre la efectividad de la reforma no es homogéneo, y podemos diferenciar claramente
dos grupos de opinión, lo que impide adoptar unas conclusiones definitivas sobre el nivel
de éxito del nuevo marco de referencia para RTVE, sí que es posible apreciar un consenso
en relación a cuáles serán los cambios que tienen más probabilidad de acontecer.
Tabla 8 – Aspectos de la RTVE relacionados con el Proyecto de Ley del
Servicio Público de Radio y Televisión de Titularidad Estatal
1. Nivel de pluralidad e independencia de la RTVE
2. La calidad de los contenidos
3. El cumplimiento de la misión de servicio público
4. El nivel de eficiencia económica
5. Pluralismo informativo
6. Diferenciación de la oferta privada
7. Adaptación al rol de liderazgo en el desarrollo de la televisión digital terrestre
8. Fuentes de financiación
De esta forma, los cambios más probables son los que tienen que ver con el nivel
de cumplimiento de la misión de servicio público y diferenciación de la oferta de los
operadores privados. De igual forma, se confía en la capacidad de la corporación para
liderar la transición del medio televisivo hacia la nueva televisión digital terrestre. En
sentido contrario, el mayor escepticismo reside en las posibilidades del nuevo modelo de
financiación para sanear y sostener la situación financiera del ente público, así como la
valoración negativa que se tiene sobre el nivel de eficiencia económica que alcanzará
RTVE con el nuevo modelo de organización. Por otra parte, el hecho de que se considere
altamente probable que la televisión pública mejore el nivel de cumplimiento de su misión
de servicio público, coincide con una opinión desfavorable sobre el hecho de que se
mejore el nivel de pluralismo informativo. Por tanto, deducimos que los resultados
positivos se pueden centrar en la programación de contenidos que no sean los puramente
informativos.
Igualmente, es previsible que, en el escenario temporal 200608 se cree el
Consejo Audiovisual conforme a lo previsto en el Proyecto de Ley de Creación del Consejo
Estatal de los Medios Audiovisuales. La citada norma establece de manera explícita las
funciones que le serán propias al nuevo órgano de control del sector audiovisual. Desde
un enfoque prospectivo, es interesante indagar en qué tipo de atribuciones se empleará
de manera más eficaz el futuro consejo.
Los resultados de la consulta efectuada a los miembros del panel de expertos
(tabla 9) denotan un elevado nivel de consenso a la hora de indicar las funciones que con
Página 68 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Página 69 de 94
mayor probabilidad ejecutará de manera satisfactoria el Consejo de Medios
Audiovisuales. Éstas tienen que ver con las acciones relacionadas con las competencias
en materia de arbitraje y mediación, y la elaboración de informes y promoción de la
autorregulación.7Por otra parte, se supone un nivel alto de eficacia en el seguimiento de
la aplicación de la legislación de Televisión sin Fronteras, normativa referida a los
contenidos de publicidad, protección de menores y fomento de la producción nacional y
europea. Por último, aunque sin que exista un nivel de consenso elevado en esta
cuestión, el Consejo de Medios Audiovisuales se presenta como un organismo que puede
favorecer el cumplimiento de la misión de servicio público de RTVE.
En sentido contrario, es destacable la valoración negativa que realizan los
expertos sobre la posibilidad de que el consejo desarrolle de manera satisfactoria las
funciones normativas y sancionadoras.
El incremento de la oferta audiovisual En los próximos años, la oferta audiovisual incluirá los distintos sistemas de
televisión: analógico, por cable, satélite, ondas terrestres y la incipiente televisión sobre
ADSL y vía móvil. Esta circunstancia va a suponer un incremento significativo sobre la
cantidad de contenidos accesibles actualmente para el usuario de los servicios de
televisión. La creación de un cuarto canal analógico, la difusión en abierto de la concesión
de Sogecable, la liberalización de la televisión por cable, la asignación de los canales de
televisión digital terrestre y las ofertas vinculadas a nuevos medios evidencian el próximo
crecimiento de la oferta televisiva.
La aparición de los nuevos canales televisivos se realizará gradualmente. El Plan
Técnico de la Televisión Digital Terrestre establece un calendario para la implantación del
nuevo estándar, al que tendríamos que añadir las fechas en las que presumiblemente
aparecerán las ofertas televisivas que utilicen otros medios de difusión. La consideración
de los expertos sobre cómo sucederá el incremento de la oferta audiovisual en los
próximos años se encuentra representada en la tabla 10.
En este sentido, un aspecto destacable es el pronóstico sobre el adelanto de la
disposición y uso de un múltiplex para cada uno de los actuales concesionarios analógicos
y el segundo múltiplex de cobertura estatal para RTVE. Si bien la fecha estimada del
apagón analógico se sitúa en el año 2010, la disponibilidad de los canales de televisión
digital terrestre tendría lugar en una fecha previa. La probabilidad de que ocurra en
2009, que se deduce de la opinión grupal de los expertos consultados, significa una
transición más rápida hacia la televisión digital terrestre que la planificada por el Plan de
Impulso de la TDT.
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Página 70 de 94
rada – Cátedra Dr. Henoch Aguiar 07 – 1er. Cuatrimestre
Página 71 de 94
10. Estimación de fechas vinculadas al incremento de la oferta audiovisual
2007 2008 2009 2010 2011 2012
Más adelante
o no ocurrirá
1 2 3 4 5 6 7
La emisión de los cuatro canales de TDT públicos a nivel nacional 11 11 11 ## 11 11,0
La puesta en marcha del segundo multiplex (cuatro nuevos canales) a conceder a la televisión pública
11,0 ## 11,0 11,0
La concesión de los siete nuevos canales de televisión digital terrestre de carácter nacional a conceder
11,0 11,0 ## 11,0 11,0
Disposición y uso de un multiplex para cada uno de los actuales canales análogos 11,0 ## 11,0 11,0
Aparición de nuevos operadores de cable tras la liberalización del medio 11,0 ## 11,0 11,0 11,0 11,0
11,0
Fusión entre las ofertas actuales de cable 11,0 11,0 11,0 ## 11,0 11,0
Aparición de nuevas ofertas de televisión sobre ADSL 11,0 11,0 11,0 ## 11,0
Aparición de una demanda significativa de televisión vía móvil 11,0 11,0 11,0 11,0
11,0
11,0
Legislación Compa20
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Página 72 de 94
A juicio del grupo de expertos consultado, hay tres factores que van a ser críticos
para explicar la cuota de mercado que alcanzarán los distintos sistemas de difusión: los
contenidos ofrecidos, la posibilidad de combinar el servicio de televisión con el servicio de
telefonía y acceso a Internet y el precio de la oferta comercial. En sentido inverso, se
estima de menor importancia la cartera de clientes que pudiera tener alguna plataforma
debido a la volatilidad del abonado y su escasa fidelidad a los servicios de televisión
contratado.
La televisión digital terrestre va a iniciar su actividad en un contexto de
competencia con otros sistemas de difusión de los servicios de televisión. En los próximos
años, es presumible que la cuota de mercado de cada una de las alternativas se vea
modificada (gráfico 11)24. La televisión de pago finalizará el 2008 con un nivel de
penetración algo superior al 30 por ciento de los hogares. A partir de esa cifra, el
incremento de la televisión de pago se deberá al crecimiento de los nuevos medios de
soporte de la televisión, como las conexiones ADSL y la tecnología móvil. La televisión
digital terrestre, aunque experimenta una rápida implantación, va a acusar una situación
de partida que se representa con un índice de penetración del uno por ciento de los
hogares en 2004 y la necesidad de adaptación de los equipos de los hogares.
24 Las cifras expuestas son una estimación basada en los valores medios que representan las valoraciones de los miembros del panel de expertos y ofrece una aproximación del nivel de penetración de las distintas tecnologías.
No obstante, las estimaciones formuladas dependen de un conjunto de variables
muy diverso. La configuración del escenario digital previsible para el año 2010 dependerá
de la importancia que cobren una serie de características que diferencian los distintos
sistemas de difusión (tabla 12).
11. Estimación del nivel de penetración difusión
16,123,2
7,2
16,9
40
14,218,1
61,9
0
10
20
30
40
50
60
70
Satélite TDT ADSL
de cada uno de los sistemas de
11,84
15,49,1
19 16,1 13,4
Cable Móvil
Escenario 2006-2008 Escenario 2009-2010 Escenario 2001-2012
rada – Cátedra Dr. Henoch Aguiar 07 – 1er. Cuatrimestre
Página 73 de 94
12. Importancia de distintos factores en la configuración del mapa audiovisual del año 2010
Muy poco
probable Muy
probable 1 2 3 4 5 6 7
El despliegue actual de las infraestructuras 5,4 11 11 11
La bidireccionalidad del medio 4,8
El precio de acceso 5,3
Los contenidos accesibles
5,6
El ancho de banda 5,2
La fidelidad del usuario 11 4,4
Imagen de marca de la oferta televisiva 4,7
La posibilidad de comercializar la oferta conjunta de televisión-Internet-telefonía
5,5
La evolución de la demanda de servicios interactivos como venta online, o video bajo demanda
4,7
Legislación Compa20
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
La posibilidad de comercializar la triple oferta de servicios de telecomunicaciones
es uno de los aspectos que explican la capacidad competitiva de los operadores de cable
y aquellos que se sumen a la iniciativa Imagenio de Telefónica comercializando servicios
de televisión sobre ADSL. La denominada “paquetización” o empaquetado de servicios es
una de las alternativas más creíbles para superar el techo de la televisión de pago en
España, cuya principal barrera es la percepción entre la población de que no aporta un
valor añadido suficiente sobre la televisión en abierto. De igual manera, es una vía
factible de utilizar por parte de los operadores de telecomunicaciones para evitar
competir en el terreno de las telecomunicaciones de voz y datos con un producto que
tenga las características de una commodity, difícil de diferenciar en el mercado. Así, se
deduce la necesidad de la televisión digital por satélite o por ondas terrestres y de los
operadores de telecomunicaciones de participar de acuerdos que permitan comercializar
paquetes de servicios que signifiquen algo más que televisión.
La televisión digital por satélite disfruta de un posicionamiento que se explica por
su aparición temprana. Esta situación actual de predominio le confiere una imagen
comercial reconocida en el mercado, una cartera de clientes consolidada y unos derechos
adquiridos sobre los principales contenidos. No obstante, de la lectura de los resultados
recogidos en la tabla 8, la cuota de mercado que mantenga en el futuro próximo
dependerá de su capacidad para mantener una situación privilegiada en cuanto a los
contenidos contratados.
Por su parte, la televisión digital terrestre se comercializará en abierto, por lo que
su capacidad de acceder a contenidos atractivos va a suponer uno de los factores que en
mayor medida expliquen su presencia en el mercado audiovisual. El desarrollo de la TDT
va a estar también condicionado por un conjunto de factores específicos que podemos
clasificar según estén relacionados con la renovación de los equipos en los hogares, el
posicionamiento de los operadores digitales de televisión de pago y el rol asumido por la
televisión pública en el impulso de este sistema de televisión.
La valoración que realizan los expertos consultados respecto al peso que van a
tener cada una de las variables que hemos considerado en la evolución de la televisión
digital terrestre permite concluir que el factor que va a condicionar en mayor medida el
nivel de desarrollo del medio serán las condiciones de acceso a los nuevos equipos que
han de adquirir los hogares para poder recibir la señal digital (tabla 13). De esta forma,
tanto la importancia de la inversión a realizar por los hogares como los incentivos
económicos que se diseñen para facilitar la compra de los receptores se consideran muy
importantes para la rápida implantación de la nueva televisión. Por tanto, el precio de los
equipos necesarios para la recepción de la señal va a ser una variable significativa en el
ritmo de implantación de la televisión digital terrestre. Igualmente, las características de
Página 74 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Página 75 de 94
los equipos comercializados van a condicionar las posibilidades de la televisión digital
terrestre para comercializar servicios interactivos. La inexistencia de un parque de
televisores preparados para recibir la señal ha supuesto una limitación al desarrollo de los
planes de negocio de los operadores Net TV y Veo TV.
rada – Cátedra Dr. Henoch Aguiar 07 – 1er. Cuatrimestre
Página 76 de 94
13. Importancia de las distintas variables que influyen en la evolución de la TDT
Muy poco probable
Muy probable
1 2 3 4 5 6 7
El desarrollo de la televisión sobre ADSL 4,4
La posición de la televisión digital por satélite 4,2
Posibilidad de conformar ofertas triple-play (telefonía, Internet, televisión) 5,2
Los planes de negocio de los actuales operadores analógicos 5,0
Nivel de interactividad del medio 5,0
La inversión que han de realizar los hogares en nuevos equipos
5,6
Los incentivos económicos para la renovación de los equipos receptores en los hogares 5,3
Las campañas de comercialización de los equipos 5,6
Las barreras de carácter cultural 3,8
La oferta atractiva de contenidos 5,5
El tamaño del mercado publicitario en España 5,1
El liderazgo público del proyecto digital 5,3
Legislación Compa20
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Por otra parte, la capacidad de los operadores para conformar una oferta atractiva
de contenidos es el segundo factor considerado más importante. Tal mejora de la oferta
debe considerar igualmente un incremento de la calidad y la diversidad de los contenidos
y la comercialización de éstos de manera conjunta con otros servicios como telefonía e
Internet, y fórmulas de acceso a la televisión como el vídeo bajo demanda.
La televisión pública tiene asignado un rol de liderazgo en el desarrollo de la
televisión digital terrestre. El reparto del espacio radioeléctrico y la asignación de canales
otorga a RTVE la posibilidad de explotar ocho canales de cobertura estatal, y a las
comunidades autónomas un múltiplex de cobertura limitada a su territorio. Esta
presencia en el mapa de la TDT explica el papel crítico que se les supone a los agentes
públicos en el periodo que resta hasta el apagón analógico. Contenidos generalistas
Contenidos temáticos Los planes de negocio que diseñen los operadores analógicos
explicarán la evolución del calendario de la implantación de de su capacidad futura para
generar ingresos procedentes de la venta de derechos sobre contenidos, el recurso a
fórmulas de acceso a contenidos de pago y el desarrollo de servicios interactivos. Según
estiman los expertos consultados, los ingresos no publicitarios adoptarán una importancia
similar a los ingresos publicitarios en el año 2010. En la actualidad, y aun haciendo uso
de la señal analógica, los ingresos que perciben los operadores por los mensajes SMS
recibidos suponen una fuente complementaria de financiación. Precisamente, ese nivel de
interactividad indica las tendencias que existen en la forma de uso y consumo de la
televisión.
14. Importancia de las fuentes de ingreso en los modelos de negocio de la TDT
0123456
Publicidad Venta deContenidos
Pago por visión SenviciosInteractivos
Escenario 2006-2008 Escenario 2008-2010
Página 77 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Página 78 de 94
15. Evolución del consumo de contenidos generalistas y temáticos
01020304050607080
Contenidos generalistas Contenidos temáticosCon
sum
o de
tele
visi
ón (%
)
Escenario 2006-2008 Escenario 2009-2010 Escenario 2011-2012
Durante los próximos años, se va producir un aumento de las cantidades
empleadas en la contratación de servicios de televisión y adquisición de equipos
audiovisuales. Si bien ya han sido comentadas las estimaciones que cuantifican el
incremento de esta cantidad, esta tendencia es un aspecto clave para comprender los
cambios en el comportamiento del consumidor que van a tener lugar hasta el año 2010
(tabla 16).
Es previsible que el incremento de la oferta audiovisual y la interactividad del
medio televisivo impliquen cambios en el comportamiento de los usuarios y en la forma
de acceder a los contenidos. Además, éstos se producirán en un contexto de incremento
del gasto de los hogares en servicios de televisión.
Consumo y formas de uso de la televisión
rada – Cátedra Dr. Henoch Aguiar 07 – 1er. Cuatrimestre
Página 79 de 94
Legislación Compa20
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
La modificación del gasto no será únicamente de carácter cuantitativo. En los
próximos años, va a haber un desplazamiento del gasto desde el pago por el acceso al
medio hacia el pago por el acceso a los contenidos. También el usuario va a distribuir su
tiempo de consumo y su esfuerzo económico entre los servicios de televisión y otros
servicios de carácter interactivo. El medio permitirá una mayor interactividad sea cual sea
la modalidad de televisión que reciba el usuario. La televisión digital terrestre y la vía
satélite ofrecen la posibilidad de utilizar servicios de baja interactividad como el correo
electrónico o las compras online, mientras que las alternativas de televisión sobre ADSL o
cable tienen la capacidad de soportar servicios de máxima interactividad. De esta forma,
tal como recoge la información contenida en el gráfico 16, existe una alta probabilidad de
que la televisión se convierta en un medio de acceso a la sociedad de la información para
los hogares españoles en el año 2010.
El comportamiento del usuario tenderá a ser más activo en los próximos años. El
recurso a la autoprogramación y la baja fidelidad a la oferta de un mismo operador
suponen tendencias características de los próximos años. No obstante, la importancia de
los cambios en el comportamiento del consumidor estará condicionada por variables
culturales y económicas que explicarán la dimensión de las variaciones y la aparición de
perfiles diferentes.
En cuanto a los contenidos que caracterizarán las preferencias de los usuarios,
evolucionarán de tal manera que los contenidos específicos van a tener cada vez mayor
importancia frente a los contenidos generalistas. La distribución del tiempo dedicado al
consumo de televisión a la finalización de 2008 significará que un 70 por ciento del
tiempo se dedique al consumo de contenidos generalistas, siendo el tiempo restante el
que ocupe el consumo de contenidos dirigidos a un determinado segmento del mercado o
temáticos. La estimación que se realiza a partir de la opinión de los expertos consultados
determina que la relación 70/30 anteriormente comentada pasará a ser 55/45 en el año
2012.
Por último, la lectura de los datos que recoge el gráfico 16 permite deducir que el
cine y el deporte seguirán siendo los contenidos críticos en la oferta de los operadores.
Los expertos no creen probable que se reduzca la importancia que tienen para diferenciar
los distintos programas y condicionar la elección de los usuarios. Además, consideran que
los nuevos canales que aparecerán con la nueva televisión digital terrestre estarán muy
vinculados a estos tipos de contenidos (gráfico 17). La televisión digital terrestre, además
de los canales generalistas, se va a centrar en la difusión de canales temáticos de
deportes y cine. La presencia de canales informativos, infantiles o culturales va a tener
un carácter secundario.
Página 80 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Conclusiones El sector audiovisual inicia un periodo durante el cual experimentará importantes
cambios en el plano tecnológico, empresarial y de contenidos. Las propuestas para la
reforma audiovisual de 2005 y la fecha del apagón analógico fijada en 2010 delimitan un
periodo de transición hacia la televisión digital en el que se producirá la transformación
del sector. En este sentido, el análisis prospectivo de la presumible evolución del medio
en los próximos años pretende disminuir el nivel de incertidumbre que está asociado al
periodo de cambio.
El periodo que consideramos va a ser el escenario temporal en el que van a tener
lugar acontecimientos provocados tanto por cambios normativos como tecnológicos. En el
gráfico 18, se encuentran representados, de acuerdo a la previsible fecha en la que
tendrán lugar, según el estudio prospectivo realizado. La presentación de las conclusiones
del estudio considera la definición de un escenario único. Si bien se ha analizado la
posibilidad de que hubiera diferentes escenarios correspondientes a distintos grupos de
expertos con diferente visión sobre el futuro de la televisión, este hecho no se deduce de
los resultados de las consultas a los expertos25.
El futuro de la televisión va a acontecer en un contexto de crecimiento del gasto
de los hogares españoles en productos audiovisuales (equipamientos, suscripciones,
pagos por visión, etcétera) y el nivel de penetración de banda ancha.
Es previsible que la cantidad empleada por los hogares españoles en la compra de
equipos y la contratación de servicios audiovisuales sea un 17,3 por ciento superior a la
actual en el año 2010. De igual forma, cerca de la mitad de los hogares tendrá una
conexión de banda ancha en la misma fecha señalada.
La prevista modificación de la normativa que afecta al servicio de televisión va a
significar la transformación de los medios públicos de titularidad estatal, la creación de un
Consejo Audiovisual y la multiplicación de la oferta de televisión en abierto. Por su parte,
el desarrollo tecnológico va a propiciar la aparición o la consolidación de nuevos sistemas
de difusión y cambios en las formas de uso y consumo de los servicios de televisión que
se caracterizan por un mayor nivel de interactividad. El desarrollo de los cambios será
gradual y se irá sucediendo a lo largo de todo el periodo previo al apagón analógico.
La reforma de Radiotelevisión Española queda enunciada en el Proyecto de Ley de
Servicio Público de Radio y Televisión de Titularidad Estatal. Según los expertos
consultados, la futura ley va a tener un nivel de efectividad satisfactorio en lo referido a
la mejora del nivel de cumplimiento de la misión de servicio público y la diferenciación de
25 El hecho de haber sometido a una segunda ronda de consultas aquellas preguntas que presentaban menor consenso puede justificar el nivel de homogeneidad en las respuestas. Aunque se pueden diferenciar dos grupos de expertos según crean que los cambios van a ser más o menos importantes, existe consenso sobre los acontecimientos que mayor probabilidad tienen de ocurrir.
Página 81 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
la oferta de los operadores privados. De igual forma, se confía en la capacidad del ente
para liderar el impulso de la televisión digital terrestre. Sin embargo, existe un notable
escepticismo en cuanto a las posibilidades del nuevo modelo de financiación para corregir
una situación financiera endémica.
La creación de un Consejo Audiovisual de ámbito estatal trata de atender un de
las demandas más repetidas por parte de los agentes del sector. El proyecto de ley
establece de manera explícita las funciones que le serán atribuidas al futuro organismo.
En este sentido, una estimación del nivel de éxito del Consejo Audiovisual señala que
obtendrá los mejores resultados en materia de mediación y arbitraje, en la protección de
los públicos más vulnerables en el fomento de la producción nacional y europea. Sin
embargo, es cuestionable el resultado del ejercicio que haga de su capacidad normativa y
sancionadora.
La creación de un cuarto canal analógico, la difusión en abierto de la concesión
que posee Sogecable, la liberalización de la televisión por cable, la asignación de los
canales de televisión digital terrestre y las ofertas vinculadas a nuevos medios evidencian
el próximo crecimiento de la oferta televisiva.
En los próximos años, la cuota de mercado de cada uno de los diferentes sistemas
de difusión de las señales de televisión se va a ver modificada. La televisión de pago
tiene un techo que se aproxima al 30 por ciento de los hogares y cuyo crecimiento
posterior será equivalente al nivel de penetración que alcancen los nuevos medios, como
la televisión sobre ADSL y tecnología móvil. La televisión digital terrestre, aunque
experimenta una rápida implantación, va a acusar una situación de partida que se
representa con un índice de penetración del uno por ciento de los hogares en 2004 y la
necesidad de adaptación de los equipos de los hogares.
De cualquier forma, la configuración del escenario digital previsible para el año
2010 dependerá de la importancia que cobren una serie de características que diferencian
a los distintos sistemas de difusión. La cuota de mercado que alcance cada uno de ellos
va a depender fundamentalmente de los contenidos ofrecidos, la posibilidad de combinar
el servicio de televisión con el servicio de telefonía y acceso a Internet, y el precio de la
oferta comercial. En sentido inverso, la cartera de clientes que pudiera tener alguna
plataforma en la actualidad será un factor de menor importancia, debido a la escasa
fidelidad que caracteriza el comportamiento de los abonados a servicios de televisión.
La televisión digital terrestre, por el hecho de comercializarse en abierto, está
afectada por unos factores de desarrollo específicos. Su próxima evolución estará
condicionada principalmente por la necesidad de renovación de los equipos en los
hogares. Tanto la importancia de la inversión a realizar por los hogares como los
Página 82 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Página 83 de 94
incentivos económicos que se diseñen par facilitar la compra de los receptores son
considerados aspectos críticos para la rápida implantación de la nueva televisión.
De la misma manera, el rol asumido por la televisión pública en el desarrollo de la
TDT condicionará el ritmo de su implantación. El número de canales asignados a RTVE y a
las cadenas autonómicas explica la necesidad de que asuman el liderazgo hasta el
momento del apagón analógico.
El modelo de negocio de la televisión digital terrestre va a depender de su
capacidad para captar ingresos publicitarios en el corto plazo. Por tanto, la dimensión del
mercado publicitario va a ser clave en los primeros años de emisión.
La importancia de la suficiencia del mercado publicitario también señala la
relevancia que tendrá la limitación que se imponga a la televisión pública en el recurso a
la vía publicitaria como fuente de financiación. Además, el reparto de los canales de
televisión digital terrestre que aún quedan por asignar explicará un mayor o menor nivel
de fragmentación de los ingresos publicitarios.
No obstante, el éxito de la televisión digital terrestre en el largo plazo dependerá
de su capacidad futura para generar ingresos de la venta de derechos de contenidos, el
recurso a las fórmulas de acceso a contenidos de pago y el desarrollo de servicios
interactivos. En el año 2010, los ingresos no publicitarios tendrán una importancia similar
a los ingresos publicitarios.
Es previsible que el incremento de la oferta audiovisual que se ha pronosticado
implique cambios en el comportamiento de los usuarios y en la forma de acceder a los
contenidos. En los próximos años, se va a producir un desplazamiento del gasto desde el
pago por el acceso al medio hacia el pago por el acceso a contenidos. Igualmente, el
tiempo de consumo y el esfuerzo económico se van a distribuir entre los servicios de
televisión y otros servicios accesibles desde el terminal de televisión, que se convertirá en
un medio de acceso a la sociedad de la información para los hogares españoles en el año
2010.
En cuanto a las preferencias del usuario, los contenidos de carácter temático van
a tener cada vez mayor importancia frente a los contenidos generalistas. Además, el cine
y los deportes seguirán siendo los contenidos con mayor capacidad para diferenciar las
distintas ofertas.
rada – Cátedra Dr. Henoch Aguiar 07 – 1er. Cuatrimestre
Página 84 de 94
Legislación Compa20
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
18. Relación de integrantes del panel de expertos 1. Alarcón Arévalo, José Carlos, consejero delegado de Sandetel 2. Almunia Fernández, Celso, catedrático de la Universidad de Valladolid 3. Arnedo Gil, Angel, director del diario El Correo (Bilbao) 3. Ayuso, Ignacio, secretario general de Antena 3 5. Ballesta Pagán, J., profesor de la Universidad de Murcia 6. Bango, Mario, periodista 7. Barreiro, Xosé Luis, catedrático de la Universidad de Santiago 8. Bayón, Félix, periodista 9. Bergareche, José María, consejero delegado del grupo Vocento 10. Benzunartea, Ofa, catedrática de la Universidad de Sevilla 11. Blanco, Elena, consejera de la RTVA y profesora de la Universidad de Málaga 12. Blecua, José Manuel, catedrático de la Universidad Autónoma de Barcelona y académico de la lengua 13. Brunet i Mauri, Joan, decano Collegi de Periodistes de Catalunya 14. Bultó Llevat, Ramón, presidente del Consejo Audiovisual de Navarra 15. Camacho, Rafael, director general de RTVA 16. Cantalapiedra, María José, profesora titular de la Universidad del País Vasco 17. Carcedo, Diego, periodista y consejero de RTVE 18. Castelló, Fernando, periodista y presidente de Reporteros sin Fronteras 19. Castro, José Angel, periodista y profesor de la Universidad Complutense de Madrid 20. Cebrián, Juan Luis, académico de la Lengua y consejero delegado del grupo Prisa 21. De Blas, Andrés, catedrático de UNED 22. De Moragas, Miguel, catedrático de la Universidad Autónoma de Barcelona 23. Del Corral, Jorge, periodista y vicepresidente de la FAPE 24. Fernández Beaumont, José, profesor de la Universidad Carlos III de Madrid 25. Fidalgo, José María, secretario general de Comisiones Obreras 26. García Días, Francisco J., director de rel. institucionales de Alcatel y prof. de la ETSI de Telecom. de Madrid 27. Garitaonandia, Carmelo, catedrático de la Universidad del País Vasco 28. González Martín, Pedro, director de relaciones internacionales de RTVE 29. González Mateos, Carlos, presidente de la FITCE 30. González Urbaneja, Fernando, presidente de la Asociación de la Prensa de Madrid 31. González Ballesteros, Teodoro, catedrático de la Universidad Complutense de Madrid 32. Gutiérrez del Álamo, Francisco, defensor del espectador y del oyente de Canal Sur 33. Gutiérrez Montes, Eladio, director de RTVE Digital 34. Ledo, Margarita, catedrática de la Universidad de Santiago 35 Lejarza, Mikel, socio consejero del grupo Árbol 36. López, Xosé, profesor de la Universidad de Santiago 37. Mandinavietia, Eduardo, director general técnico del grupo Zenith – Optimedia en España 38. Manfredi Mayoral, Juan Luis, profesor de la Universidad de Sevilla 39. Martín González, Aurello, presidente de la Asociación Española de Televisiones Locales 40. Martínez Eder, María Isabel, miembro del Consejo Audiovisual de Navarra 41. Morán, Próspero, profesor de la Universidad Carlos III de Madrid 42. Murciano, Marcial, profesor de la Universidad Autónoma de Barcelona 43. Navarro de Luján, Vicente, director general del Libro y Bibliotecas de la Generalitat Valenciana 44. Núñez Encabo, Manuel, catedrático de la Universidad Complutense de Madrid 45. Perales Albert, Alejandro, presidente de la Asociación de Usuarios de la Comunicación 46. Portebella Ràfois, Pere, presidente de la Fundación Alternativas 47. Román del Río, Carlos, director del Instituto de Desarrollo Regional de Andalucía 48. Romera Lubias, Fellipe, ingeniero en telecomunicaciones y director del Parque Tecnológico de Andalucía 49. Ruiz Trueba, José María, director de la Comisión de Comunicación de la Concapa 50. Sánchez Tabernero, Alfonso, vicerrector de Comunicación Institucional de la Universidad de Navarra 51. Seseña Navarro, Julián, director ejecutivo de Teledesic Communications Spain 52. Sevillano Romero, José Luis, director general de la AIE 53. Sierra, Francisco, decano de la Facultad de Comunicación de la Universidad de Sevilla 54. Timoteo Álvarez, Jesús, catedrático de la Universidad Complutense de Madrid 55. Toharia, Manuel, director del Museo Príncipe Felipe de Valencia 56. Tresserras I Gaju, Josep Manuel, miembro del Consejo del Audiovisual de Cataluña 57. Vega Gómez, Xosé Manuel, decano del Colegio Profesional de Xomalistas de Galicia 58. Zarzalejos, José Antonio, director del diario Abc 59 a 65. Seis expertos, identificados como tales en el panel, han emitido las respuestas con el expreso deseo de que sus nombres no aparezcan en esta relación.
Página 85 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Glosario de telecomunicaciones y redes
A
Ancho de banda: Capacidad de transporte de un circuito que en el caso de circuitos digitales se lee en bits por segundo y en el caso de circuitos analógicos en hertz por segundo.
Aplicación: Programa de software o paquete de programas que efectúa llamadas al sistema operativo, manipula archivos de datos y permite que el usuario realice una tarea específica (tal como contabilidad o procesamiento de textos).
Aplicación distribuida: Aplicación que opera en un entorno de computación distribuida en el cual los módulos de la aplicación se pueden ejecutar sobre distintos sistemas.
Aplicación vertical: Aplicación específica de un área de utilización. Por ejemplo, una aplicación contable o una aplicación legal.
Archivo: Colección de datos o información que es almacenada como una entidad individual con su propio nombre. Los archivos pueden contener distintos tipos de información, tal como texto, programas o datos.
B
Backbone: Enlace troncal usado para interconectar redes entre sí utilizando diferentes tipos de tecnologías.
Banda ancha: Característica de una red que abarca múltiples portadoras de red independientes en un único cable. Permite que distintas redes coexistan en un único cable. El tráfico de una red no interfiere con el tráfico de otra red porque las conversaciones se producen en distintas frecuencias.
Base de datos: Colección de datos con una estructura determinada para aceptar, almacenar y proporcionar datos a un usuario individual o a múltiples usuarios.
Bridge: Dispositivo usado para conectar dos redes y hacer que las mismas funcionen como si fueran una. Típicamente se utilizan para dividir una red en redes más pequeñas, para incrementar el rendimiento.
C
Página 87 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Cable: Conducto que conecta dispositivos de la red entre sí. El tipo de cable a utilizar depende del tamaño de la red y la topología de la misma.
Cable de fibra óptica: Medio de transmisión con gran ancho de banda que permite la transmisión de datos mediante la modulación de ondas luminosas por medio de una fibra especial de vidrio o de plástico.
Cable de par trenzado: Dos cables, en general ligeramente torcidos entre sí, que contribuyen a cancelar cualquier ruido inducido en circuitos balanceados.
Cifrado: Mezcla o codificación de datos por razones de seguridad.
Cliente: 1. Nodo u estación de trabajo (computadora) en una red de computadoras que pide servicios a un servidor de red. Las estaciones clientes ejecutan software cliente.
2. Programa o conjunto de programas de ejecución de software mediante el cual la estación cliente envía un pedido a un servidor y espera una respuesta. La parte del usuario en una conexión cliente-servidor.
Comunicación par a par: Comunicación directa entre dispositivos que operan en el mismo nivel de comunicaciones de una red, sin la participación de ningún dispositivo intermedio tal como un host o un servidor. Un método (o protocolo) de comunicaciones par a par sólo define los mecanismos básicos utilizados para transferir datos; no necesita especificar cuándo o por qué los programas de aplicaciones o nodos interactúan o cómo se deben organizar las comunicaciones entre dichas aplicaciones o nodos en un entorno distribuido. Estos últimos problemas pertenecen al dominio del sistema operativo par a par. Véase también red par a par.
D
Dirección IP: Dirección numérica tal como 123.231.32.2 que el servidor de nombre de dominio traduce a un nombre de dominio.
Domain Name System (Sistema de Nombres de Dominio - DNS): Base de datos de nombres/direcciones distribuida utilizada en Internet.
Dominio: En Internet, parte de una jerarquía de asignación de nombre. Sintácticamente, un nombre de dominio Internet consiste en una secuencia de nombres separados por puntos.
E
Página 88 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Ethernet: Esquema de protocolo de acceso y cableado de red desarrollado originalmente por DEC, Intel y Xerox. Tiene un ancho de banda de 10 Mbit/s y soporta implementaciones de cable coaxil, de par trenzado (10Base-T) y fibra óptica.
Extranet: Dos o más intranets conectadas de tal manera que permiten la colaboración entre las empresas propietarias de las intranets separadas.
F
Fast Ethernet: Un nuevo estándar de Ethernet que provee velocidad de 100 Megabits por segundo ( a diferencia de los 10 megabits por segundo de las redes Ethernet )
Firewall: 1. Una computadora que corre un software especial utilizado para prevenir el acceso de usuarios no autorizados a la red. Todo el tráfico de la red debe pasar primero a través de la computadora del firewall. 2. Software que verifica paquetes en la frontera entre dos redes (tal como la frontera entre una red de área local e Internet) y elimina los paquetes que no cumplen con criterios de seguridad específicos.
G
Gateway: Dispositivo utilizado para conectar diferentes tipos de ambientes operativos. Típicamente se usan para conectar redes LAN a minicomputadores o mainframes.
GSM (Groupe special mobile). Especificación de telefonía móvil digital que busca consolidarse como el estándar europeo de telefonía celular, de forma que se pueda utilizar un mismo teléfono en cualquier país del continente.
H
HTML: Hiper Text Markup Language. Lenguaje de Marcación de Hipertexto.
HTTP: Hiper Text Transfer Protocol. Protocolo de Transferencia de Hipertexto.
Hub: Concentrador. Dispositivo que se utiliza típicamente en topología en estrella como punto central de una red, donde por ende confluyen todos los enlaces de los diferentes dispositivos de la red.
I
Página 89 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
Interfaz gráfica de usuario (GUI, Graphic User Interface): Interfaz de usuario que representa comandos, archivos y ventanas como íconos a los que los usuarios pueden acceder y manipular utilizando un mouse u otro dispositivo apuntador.
Internet: Internet se define generalmente como la red de redes mundial. Las redes que son parte de esta red se pueden comunicar entre sí a través de un protocolo denominado, TCP/IP (Transmission Control Protocol/ Internet Protocol).
Intranet: Las Intranets son redes corporativas que utilizan los protocolos y herramientas de Internet. Si esta red se encuentra a su vez conectada a Internet, generalmente se la protege mediante firewalls.
ISDN (Integrated Services Digital Network, Red Digital de Servicios Integrados): Estándar de la ITU que cubre una amplia gama de temas de comunicaciones de datos pero principalmente la integración total de voz y datos.
K
KB: Véase kilobyte.
Kbits/s: Véase kilobits por segundo.
Kbyte/s: Véase kilobytes por segundo.
Kernel: Núcleo de un sistema operativo responsable de administrar los recursos del sistema.
Kilobits por segundo (kbits/s): Unidad de medición de regímenes de transferencia de datos; dos bits a la décima potencia (1.024) por segundo.
Kilobyte (KB): Unidad de medición de la capacidad de memoria o almacenamiento en disco; dos bytes a la décima potencia (1.024).
Kilobytes por segundo (kbyte/s): Mil veinticuatro bytes por segundo. Unidad de medición generalmente utilizada para regímenes de transferencia de datos.
L
LAN: Local Area Network o red de área local: Se trata de una red de comunicación de datos geográficamente limitada (no supera por lo general un radio de un kilómetro).
Página 90 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
M
Módem: Literalmente, modulador/demodulador. Convierte datos digitales en señales analógicas (forma de onda) para la transmisión por medios que transportan señales analógicas y vuelve a convertir las señales analógicas recibidas en datos digitales que serán utilizados por la computadora. Con la aparición de las líneas digitales también surgió un nuevo tipo de módem, denominado módem digital, que en realidad no modula y demodula señales sino que simplemente es responsable de su transmisión por líneas digitales.
N
Network: (red) Una red de computadoras es un sistema de comunicación de datos que conecta entre si sistemas informáticos situados en diferentes lugares. Puede estar compuesta por diferentes combinaciones de diversos tipos de redes.
Nodo: Un dispositivo de la red, generalmente una computadora o una impresora.
P
Paquete: Unidad de información mediante la cual se comunica la red. Cada paquete contiene las identidades de las estaciones emisora y receptora, información sobre control de errores, un pedido de servicio, información sobre cómo administrar el pedido y todos los datos que se deban transferir.
Par trenzado: Cable similar a los pares telefónicos estándar, que consiste en dos cables aislados "trenzados" entre sí y encapsulados en plástico. Los pares aislados vienen en dos formas: cubiertos y descubiertos.
R
Repetidor: Un dispositivo que intensifica las señales de la red. Los repetidores se usan cuando el largo total de los cables de la red es mas largo que el máximo permitido por el tipo de cable. No en todos los casos se pueden utilizar.
Router – Enrutador: Dispositivo que dirige el tráfico entre redes y que es capaz de determinar los caminos más eficientes, asegurando un alto rendimiento.
S
Server (servidor): Sistema que proporciona recursos (por ejemplo, servidores de archivos, servidores de nombres). En Internet este término se utiliza muy a
Página 91 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
menudo para designar a aquellos sistemas que proporcionan información a los usuarios de la red.
Switch: Un dispositivo de red capaz de realizar una serie de tareas de administración, incluyendo el redireccionamiento de los datos.
T
TCP/IP (Transfer Control Protocol / Internet Protocol): Protocolo de comunicaciones de Internet.
Telefonía: Término genérico utilizado para describir telecomunicaciones de voz.
Terabyte (TB): Unidad de medición de capacidad de memoria o almacenamiento en disco; dos bytes a la cuadragésima potencia (aproximadamente un billón de bytes. Mil gigabytes).
W
WAN- Wide Area Network: Red de área amplia: Una red generalmente construida con líneas en serie que se extiende a distancias mayores a un kilómetro.
Wireless: Redes sin hilos. Las redes sin cables permiten compartir periféricos y acceso a Internet
Fuentes: Novell Argentina Mazalán y Asociados Cisco Press Glosarium: http://www.glosarium.com/term/1282,14,xhtml
Página 92 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
MATERIAL DE CÁTEDRA; Esquema para la organización de un trabajo de investigación académico, Buenos Aires, 2006.
Esquema para la organización de un trabajo de investigación académico
Etapas:
1. Teórica herramental
La incógnita (P) busca indagar en teorías anteriores herramientas para analizar hechos nuevos y concluir en un aporte original. Se observa en los antecedentes de investigación si esas teorías sirvieron para algo. Se evalúa para qué sirven las categorías preexistentes y su validez como herramientas útiles para la nueva investigación.
2. Diagnóstico de la realidad
Son nuevos detalles sobre el tema (sintonía fina). Es una descripción valorativa mostrando algunas facetas (no todo) de las teorías que estoy utilizando.
3. Prospectiva
Interroga sobre qué pasará con este diagnóstico en el futuro. Observa las tendencias pensadas en lo abstracto/estructural. Establece puntos nodales y deja de lado la anécdota del pasado. Una vez identificadas las teorías dominantes, se establece si se presentan o no anomalías en el interior del campo de estudio y si éstas son: 1) Una tendencia marcada a generalizarse; o 2) Anomalías a ser desechadas.
Página 93 de 94
Legislación Comparada – Cátedra Dr. Henoch Aguiar 2007 – 1er. Cuatrimestre
4. Resolutoria
Propone alternativas o caminos para responder a los cambios. Ya no es sólo una cita de otro. Se juegan conclusiones.
5. Conclusión
Cada capítulo debe tener su introducción, desarrollo y conclusión. Con títulos, subtítulos y estructura interna. Por lo tanto, la quinta etapa equivale a una conclusión dotada de los pasos anteriores y los aportes originales propios al campo estudiado.
Página 94 de 94