151
Curso de Pós-Graduação “Lato Sensu” (Especialização) a Distância Administração em Redes Linux CIBERCULTURA E SOFTWARE LIVRE 4 a Edição Kátia Cilene Amaral Uchôa Universidade Federal de Lavras – UFLA Fundação de Apoio ao Ensino, Pesquisa e Extensão – FAEPE Lavras – MG

CIBERCULTURA E SOFTWARE LIVRE

Embed Size (px)

DESCRIPTION

APOSTILA CIBERCULTURA E SOFTWARE LIVRE

Citation preview

Curso de Pós-Graduação“Lato Sensu” (Especialização) a Distância

Administração em Redes Linux

CIBERCULTURA E SOFTWARE LIVRE

4a Edição

Kátia Cilene Amaral Uchôa

Universidade Federal de Lavras – UFLAFundação de Apoio ao Ensino, Pesquisa e Extensão – FAEPE

Lavras – MG

PARCERIAUniversidade Federal de Lavras – UFLAFundação de Apoio ao Ensino, Pesquisa e Extensão – FAEPE

REITORAntônio Nazareno Guimarães Mendes

VICE-REITORRicardo Pereira Reis

DIRETOR DA EDITORAMarco Antônio Rezende Alvarenga

PRÓ-REITOR DE PÓS-GRADUAÇÃOJoel Augusto Muniz

PRÓ-REITOR ADJUNTO DE PÓS-GRADUAÇÃO “LATO SENSU”Marcelo Silva de Oliveira

COORDENADOR DO CURSOJoaquim Quinteiro Uchôa

PRESIDENTE DO CONSELHO DELIBERATIVO DA FAEPELuiz Antônio Lima

EDITORAÇÃOGrupo Ginux (http://www.ginux.ufla.br/)

IMPRESSÃOGráfica Universitária/UFLA

Ficha Catalográfica preparada pela Divisão de Processos Técnicosda Biblioteca Central da UFLA

Uchôa,Kátia Cilene AmaralCibercultura e Software Livre/ Kátia Cilene Amaral Uchôa. - - 4.ed. Lavras:

UFLA/FAEPE, 2008.151 p. : il. - Curso de Pós-Graduação “Lato Sensu” (Especialização) a

Distância: Administração em Redes Linux.

Bibliografia.

1. História da Internet. 2. Serviços da Internet. 3. Software Livre. 4.Licenças. 5. Cibercultura. 6. Comunidades Virtuais. 7. Estratégia de NegócioI. Uchôa, K.A. II. Universidade Federal de Lavras. III. Fundação de Apoio aoEnsino, Pesquisa e Extensão. VI. Título.

CDD-003.5-005.43

Nenhuma parte desta publicação pode ser reproduzida, por qualquermeio ou forma, sem a prévia autorização da FAEPE.

Dedicado a minha filha Sofia Amaral Uchôa

SUMÁRIO

1 Introdução 9

2 Aspectos Técnicos e Sociais da Internet 13

2.1 A Sociedade da Informação . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.2 Nascimento e Evolução da Internet . . . . . . . . . . . . . . . . . . . . . . . . 17

2.2.1 Origens e Motivações . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2.2.2 Internet no Brasil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

2.3 Principais Serviços da Internet . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2.3.1 World Wide Web - WWW . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.3.2 Correio Eletrônico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.3.3 Fóruns e Listas de Discussão . . . . . . . . . . . . . . . . . . . . . . . 36

2.3.4 Comunicação Instantânea e Bate-Papo . . . . . . . . . . . . . . . . . 38

2.3.5 Compartilhamento de Arquivos: FTP e P2P . . . . . . . . . . . . . . . 39

2.3.6 Mecanismos de Busca . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.3.7 Comércio Online . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.3.8 Provedores Gratuitos . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

2.3.9 Web 2.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

2.4 Internet e Inclusão Social / Digital . . . . . . . . . . . . . . . . . . . . . . . . . 49

3 Ciberespaço e Cibercultura 57

3.1 Origem e Definição do Ciberespaço . . . . . . . . . . . . . . . . . . . . . . . 57

3.2 A Cibercultura . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3.3 Virtual x Real . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

3.4 Hipertexto, Hipermídia e Multimídia . . . . . . . . . . . . . . . . . . . . . . . . 67

3.4.1 Comunidades Virtuais . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

3.4.2 Formação e Funcionamento das Comunidades Virtuais . . . . . . . . 79

3.5 Comentários Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

4 Cultura Hacker e Crimes Digitais 83

4.1 Cultura e Ética Hacker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

4.2 Privacidade, Leis e Crimes no Ciberespaço . . . . . . . . . . . . . . . . . . . 87

4.3 Comentários Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

5 História e Filosofia do Software Livre 93

5.1 Software Livre e Software de Código Aberto . . . . . . . . . . . . . . . . . . . 93

5.2 Evolução Histórica do Software Livre . . . . . . . . . . . . . . . . . . . . . . . 98

5.3 Outras Instituições e Movimentos de Software Livre . . . . . . . . . . . . . . 101

5.4 O GNU/Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

5.5 Comunidade Software Livre . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

5.5.1 Catedral e Bazar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

5.6 Liderança de Projeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

5.7 Importância da Possibilidade do Fork . . . . . . . . . . . . . . . . . . . . . . . 112

6 Licenças de Uso em Software Livre 115

6.1 O significado de Copyleft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

6.2 GPL - Licença Pública Geral GNU . . . . . . . . . . . . . . . . . . . . . . . . 116

6.3 Licença Pública Geral Menor do GNU . . . . . . . . . . . . . . . . . . . . . . 119

6.4 Compatibilidade com a Licença GPL . . . . . . . . . . . . . . . . . . . . . . . 119

6.5 Licenças Incompatíveis com a GPL . . . . . . . . . . . . . . . . . . . . . . . . 121

6.6 Patentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

7 Modelos de Negócios com Software Livre 125

7.1 Contexto Ideológico e Negócios com o Software Livre . . . . . . . . . . . . . 125

7.2 Estratégias de Negócio com Software Livre . . . . . . . . . . . . . . . . . . . 127

7.2.1 A Estratégia de Otimização . . . . . . . . . . . . . . . . . . . . . . . . 127

7.2.2 Estratégia de Patrocínio . . . . . . . . . . . . . . . . . . . . . . . . . . 129

7.2.3 Estratégia da Licença Dual . . . . . . . . . . . . . . . . . . . . . . . . 129

7.2.4 Estratégia de Hospedagem . . . . . . . . . . . . . . . . . . . . . . . . 130

7.2.5 Estratégia de Consultoria . . . . . . . . . . . . . . . . . . . . . . . . . 130

7.2.6 Estratégia de Assinatura . . . . . . . . . . . . . . . . . . . . . . . . . . 131

7.2.7 Estratégia Embarcada . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

7.3 Comentários Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

A Apêndice: Aplicativos Livres 135

A.1 Facilidade de Uso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135

A.2 Suíte de Aplicativos para Escritório . . . . . . . . . . . . . . . . . . . . . . . . 137

A.3 Aplicações para Internet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

A.4 Jogos e Entretenimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

A.5 Aplicações Específicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

A.6 Conclusões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

Referências Bibliográficas 147

LISTA DE FIGURAS

2.1 Navegador Web Firefox . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.2 Navegador Web Mozilla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

2.3 Leitor de e-mail Thunderbird em Linux . . . . . . . . . . . . . . . . . . . . . . 34

2.4 X-Chat, cliente IRC para Linux . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.5 Gaim conectado a um servidor Jabber . . . . . . . . . . . . . . . . . . . . . . 40

2.6 Web 2.0 Meme Map – Fonte: (O’REILLY, 2005) . . . . . . . . . . . . . . . . . 45

5.1 Categorias de Software – Adaptado de (FREE SOFTWARE FOUNDATION,2002) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

6.1 Adoção de Licenças em Projetos da Freshmeat – Fonte: (STATISTICS. . . ,2007) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

A.1 Gerenciador de Ambiente KDE . . . . . . . . . . . . . . . . . . . . . . . . . . 136

A.2 Gerenciador de Ambiente GNOME . . . . . . . . . . . . . . . . . . . . . . . . 137

A.3 OpenOffice.org Writer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138

A.4 Processador de Textos Abiword . . . . . . . . . . . . . . . . . . . . . . . . . . 139

A.5 Gerenciador de Informações Pessoais Evolution . . . . . . . . . . . . . . . . 141

A.6 FreeCiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

A.7 GIMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

A.8 Simulador KTechLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

1INTRODUÇÃO

O módulo Cibercultura e Software Livre tem por objetivo oferecer uma série de elemen-tos básicos para propiciar a discussão sobre a história, os conceitos, os serviços emergen-tes na Internet. Busca-se aprofundar o estudo da Internet, como um meio de comunicação,ou seja, sob a ótico de um usuário final, ao mesmo tempo que não fica alheio dessa abor-dagem aspectos também técnico do administrador de redes. Em âmbito mais geral, essetexto é proposto como um catalizador das discussões a respeito das implicações que essesassuntos emergentes na Internet trouxeram para sociedade, as mudanças de paradigmas,as quais refletem principalmente no profissional de TI (Tecnologia da Informação). O mó-dulo visa ainda fomentar os alunos nas discussões sobre o software livre, do ponto de vistade seus vários aspectos: social, ecomômico e tecnológico, os quais também são de sumaimportância para a formação do futuro especialista em Administração em Redes Linux. Porfim, essas discussões pretende favorecer a inserção crítica e consciente dos cidadãos naWeb e por conseguinte a sua formação cultural nesse espaço.

Cibercultura e Software Livre contém ao todo seis capítulos, mais um apêndice, sendoque a leitura deles pode ser feita linearmente em função do índice. Ou então, o leitorpode navegar pelos diferentes capítulos em função de seus interesses, conhecimentos eorganizar seu próprio itinerário. É importante destacar que o livro texto não objetiva esgotaros inúmeros assuntos abordados, dada a sua complexidade, cabe ao aluno utilizá-lo comoponto de apoio, para dar início as pesquisas sobre o tema, competindo-lhes também paraseu aprofundamento, a produção do conhecimento mediante discussão e elaboração emconjunto com os demais colegas durante a tutoria online.

Assim, no Capítulo 2, intitulado Aspectos Técnicos e Sociais da Internet, o leitor en-contra a contextualização da sociedade em que emergem os assuntos a serem abordadosneste livro e suas principais características, as quais distinguem do modo de produção deuma sociedade industrial. Ele traz um breve histórico do percurso da Internet, desde suaorigem até sua fomentação em contexto brasileiro. Além disso, adentra nos principais ser-viços da Internet destacando suas características, mas focando principalmente os serviçosmais relevantes para um usuário comum em seu cotidiano. Não poderia ficar fora deste

10 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

capítulo uma rápida análise das implicações sociais que esta sociedade interligada pelasredes de computadores, inclusive em contexto brasileiro, está sujeita no tocante ao assuntoda exclusão digital.

O Capítulo 3, Ciberespaço e Cibercultura, aborda o ciberespaço como fenômeno so-cial e principalmente um meio de comunicação em que as informações estão organizadascom novas roupagens, como por exemplo, através de hipertexto, hipermídia ou multimídia,mecanismos esses que permite estabelecer uma comunicação mais dinâmica, interativa detodos-para-todos. Alguns conceitos emergentes são abordados, bem como as suas impli-cações na sociedade. Inclusive, o texto ainda destaca a formação de comunidades virtuaiscomo novo meio de organização grupal.

O Capítulo 4, Cultura Hacker e Crimes Digitais, trata sobre questões relacionadas àcultura hacker e questiona a veracidade desse termo veiculada nos meios de comunicação.Além disso, propõe discutir alguns crimes oriundos no contexto virtual.

O Capítulo 5, História e Filosofia do Software Livre, apresenta a história do nascimentoe evolução do software livre e código aberto, bem como os principais participantes e líderesdessas comunidades. O Software Livre é discutido não apenas como uma forma diferentede produzir software, ou seja, como algo a ser entendido no âmbito estritamente tecnoló-gico. Antes disso, é abordado como um movimento social nascido de uma reflexão sobre opapel do software de computador e sua importância na vida das pessoas comuns e no dia-a-dia das empresas. Além disso, nesse capítulo trata questões de organização de projetosem comunidades de software livre, bem como as lideranças desses projetos.

O Capítulo 6, Licenças de Uso em Software Livre, refere as questões que estão nocoração do software livre e suas comunidades, como as licenças, as quais determinam seum dado software é aberto, livre ou proprietário.

O Capítulo 7, Modelos de Negócios com Software Livre, aborda as relações econô-micas que são determinantes para o sucesso ou insucesso de projeto com software livre.As estratégias de negócios com produtos livres, de acordo com (KOENING, 2004) abremas oportunidades econômicas para a expansão do mercado de Informática dentro de ummundo capitalista e uma economia globalizada.

Por fim, o Apêndice A: Aplicativos Livres apresenta alguns aplicativos livres (processa-mento de textos, edição de imagens, Internet, Jogos, entre outros) voltados para o usuáriofinal, a fim de estimular as pessoas a experimentarem e usarem o software livre no seudia-a-dia.

A autora deste módulo gostaria de agradecer a Samuel Pereira Dias pela escrita doApêndice A, Joaquim Quinteiro Uchôa pela escrita da Seção 2.2 e a José Monserrat Neto

Introdução 11

pelas correções técnicas. Esta edição foi produzida tomando-se por base versões anterio-res deste material didático, especialmente (LOZANO; UCHÔA, 2006) e (UCHÔA, 2003).

12 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

2ASPECTOS TÉCNICOS E SOCIAIS DA

INTERNET

A Internet precisa ser analisada tanto como fenômeno tecnológico, comosocial precursora das mudanças presentes na sociedade da informa-ção e globalizada. Compreender suas implicações tecnológicas, sociaise econômicas é base para sedimentar a extensão das implicações dosoftware livre na sociedade contemporânea.

2.1 A SOCIEDADE DA INFORMAÇÃO

Na sociedade contemporânea observa-se contínua evolução das tecnologias da infor-mação e comunicação (TICs), as quais influenciam e provocam mudanças nas formas deproduções em todos os domínios da sociedade. Essas tecnologias que começaram por in-fluenciar sobretudo as formas de trabalhar e comunicar nas empresas e na administração,estendem-se, na atualidade, para as mais diversas atividades cotidianas profissionais doscidadãos nos diversos países do globo.

Para Castells (2001), o principal responsável tecnológico causador dessas mudançasé a Internet. A Internet possibilitou à sociedade conectar-se em rede, com isso “as pes-soas, as instituições, as empresas e a sociedade em geral, transformam a tecnologia,apropriando-a, modificando-a e experimentando-a – especialmente no caso da Internet,por ser uma tecnologia de comunicação” (CASTELLS, 2003). Ampliando essa idéia, Cas-tells (2001) assinala que na sociedade da informação a comunicação entre os indivíduostorna-se mais ágil, independentemente da localização geográfica, e, a partir desta possi-bilidade, percebe-se a tendência das pessoas reunirem-se em grupos sociais visando ocompartilhamento de informações.

Ainda complementando seu argumento, (CASTELLS, 2003) afirma que a Internet “foiuma tecnologia viral, duas pessoas conectaram-se, depois vieram outras e mais outras elogo se formou uma rede mundial”. Com isto cria-se um mundo sem fronteiras, que não

14 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

introduz uma nova maneira de se relacionar, mas sim, cria um novo espaço para relacio-namentos sociais, nas organizações e formas de trabalho, nas transações monetárias, nacodificação de distintas manifestações culturais, na configuração urbanística das cidades,entre outros. A Internet vem, cada vez mais, tomando parte da vida cotidiana, como ummeio de comunicação extremamente poderoso. Observa-se, entretanto, que a Internet pos-sui um poder de ação muito maior que os atuais meios de comunicação de massa. Comocomentado por (MELEIS, 1996):

A indústria de serviços de informações irá direcionar a saúde econômica no séculoXXI. A parte de transporte dessa indústria - Redes de Informação - está surgindocomo infra-estrutura crítica para o comércio de forma similar aos navios e estradasde ferro no século XIX e automóveis e linhas aéreas no século XX. Redes deInformação irão transportar a mercadoria comercial primária do próximo século -informação digitalizada - e instrumentos de informação irão colocá-la na ponta deseus dedos.

Dado esse contexto, é praticamente consenso entre pesquisadores de diversas áreasa afirmação que as novas tecnologias, como o computador e a Internet, propiciam modifi-cações nos contextos políticos, sociais e econômicos e mesmo culturais, como apontadoem: (SCHAFF, 1992), (LÉVY, 1995) ou (CASTELLS, 2001). Lévy, em (LÉVY, 1995) afirmaque grande parte dessas modificações influenciam a natureza do conhecimento e irão dar àsociedade a possibilidade de chegar a uma tecnodemocracia, isto é, um tipo de sociedadeem que os meios técnicos auxiliarão o exercício de uma sociedade mais democrática.

Por sua vez, Roberto Aparici problematiza essa visão otimista, salientando que a im-portância dada às novas tecnologias no mundo atual está associada ao mito que elas sãoprodutoras de bem-estar em todo o planeta (APARICI, 1998). Em contrapartida, as pes-soas tendem a camuflar que essas novas tecnologias estão aguçando, cada vez mais, asdesigualdades sociais e a concentração de riqueza. Inclusive, a desigualdade no acessoao desenvolvimento tecnológico pode ser verificada na comparação entre as oportunidadestecnológicas no primeiro e no terceiro mundo.

Aparici argumenta ainda que, atualmente, não basta que as pessoas tenham algunsconhecimentos tecnológicos para estarem inseridas na dinâmica social e econômica da so-ciedade da informação. É preciso fazer parte desta sociedade como produtores criativosdessas tecnologias, trabalhando mais no setor dos serviços e da informação e menos nastarefas ligadas à agricultura e à indústria. Argumentando essa afirmativa, Aparici diz quemais da metade dos cidadãos americanos estão dedicando-se às tarefas vinculadas à in-formação, enquanto a maior parte da população latina-americana dedica-se à agricultura,em detrimento das tarefas ligadas a informação.

Aspectos Técnicos e Sociais da Internet 15

Ainda seguindo a visão menos otimista, o autor Dominique Wolton pondera algumascríticas às novas tecnologias. Como apontado em Wolton (WOLTON, 2000), a impregna-ção da Internet na sociedade, como símbolo mais significativo das novas tecnologias, nãoocorre da mesma maneira que com as outras tecnologias, para modifica a sociedade. Con-tinuando, o autor afirma que a ideologia técnica, que se faz presente na sociedade européia,reduz o ato de comunicar a tecnologia e constrói uma falsa hierarquia entre novos e antigosmeios de comunicação social, sendo necessário evitar esse tipo de hierarquização.

Ainda (WOLTON, 2000), assegura que a comunicação mediada pelas novas tecnolo-gias não substituirá a comunicação humana e que se a Internet for tomada como símbolodas novas tecnologias, é de se saber se esta inovação provoca ou não uma (re)evoluçãoimportante nos modelos culturais e sociais da comunicação. Se modelos sociais, culturaise inovações técnicas possuirem relações significativas, mesmo que com ritmos diferenci-ados, isso induz a afirmativa que a Internet inaugurará um terceiro capítulo na história dacomunicação do planeta. Do contrário, não existindo qualquer relação significativa entre ostrês modelos, isto induz a assertiva de que as novas tecnologias não chegarão a ser o sím-bolo de uma nova revolução geral da comunicação e, bem como, a Internet não constituirásímbolo de uma nova sociedade.

A diferença entre essas duas posições é grande e está relacionada à visão de que asnovas tecnologias de comunicação constitui uma inovação técnica, mas as ponderaçõesdevem levar em conta que a comunicação não depende somente de técnica, mas das di-mensões sociais e culturais. Por fim, na compreensão de Wolton, as novas tecnologias nãosão as condições ou vanguardas da comunicação do amanhã. Ele argumenta que se nofuturo rupturas sociais e culturais criarem um novo significado para as novas tecnologias, háprobabilidade de que estas não sejam apenas no sentido técnico, o qual atualmente tomalugar nas reflexões do tema da “sociedade da informação” ou “sociedade em rede”.

No contexto das discussões otimistas e pessimistas da presença das novas tecnologiasna sociedade, observa-se na prática a existência de implicações sociais menos positivas.Logicamente, o usufruto dos benefícios relevantes da “sociedade da informação” pressu-põe não somente estar conectado individualmente à Internet, o que se relaciona a custosdos equipamentos e de ligação à rede digital, mas principalmente ter condições mínimaspara manusear e compreender essas novas tecnologias. Dessa forma, levando em contaque no Brasil a maior parte da população não possui acesso e conhecimento amplo dastecnologias digitais, ao contrário essa realidade está mesmo distante, projetos que possamamenizar este distanciamento passam a ser cada vez mais necessários. Assim, atualmenteem contexto brasileiro surgem inúmeros programas de inclusão digital, em paralelo com a

16 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

preocupação crescente de incluir no currículo das escolas o estudo e uso dessas tecnolo-gias visando a alfabetização digital em estabelecimentos escolares1.

Analisando a complexidade do verdadeiro impacto da Internet e das tecnologias digitais,parece indiscutível que essas tecnologias tem implicações sociais de diversas naturezas emtodas as áreas de atuação do homem. Por isto, a profunda evolução tecnológica presenteno século XX tem sido caracterizada como: a “sociedade da informação”, ou “sociedade doconhecimento”, conforme (CASTELLS, 2001) (SCHAFF, 1992). Nessa sociedade, a basede produção é a informação e o conhecimento, enquanto que na sociedade industrial ocapital é o motor do modo de produção e a principal fonte de poder.

Nesse contexto de mudanças, os responsáveis pelos governos de vários países vemtomando medidas que melhor aproxime sua nação da sociedade da informação. Por exem-plo, em solo português, a abordagem governamental da sociedade da informação data demeados da década de 90, a partir de então foi estabelecida a criação do Livro Verde para aSociedade da Informação (Missão para a Sociedade da Informação, 1997). Dentre os obje-tivos desse governo encontram-se: a realização de dezenas de projetos em áreas das maisdiversas que passa pela massificação do Acesso em Banda Larga, melhoria do serviço doEstado aos Cidadãos e Empresas por meio do Governo Eletrônico, desenvolvimento decompetências e culturas digitais, entre outros.

No contexto brasileiro, a iniciativa de criação do Livro Verde deu-se nos anos 1998 e1999, sendo marcada pela euforia dos agentes sociais com atuação relacionada à Internetcomercial brasileira. A Internet começava a atrair os investidores que suspeitavam que nelapoderia ser gerado dinheiro, através de criação das denominadas empresas.com. Pode-se dizer que essa atmosfera de euforia mostrava que estava comercialmente surgindo umnovo segmento econômico incentivado por investidores globais, expressa principalmentepelos índices de Nasdaq, a chamada “bolsa das empresas de alta tecnologia”. O LivroVerde foi publicado e lançado em setembro de 2000. É interessante observar que emépoca próxima do lançamento desse documento, a chamada “Bolha de Nasdaq havia es-tourado”, com as quedas em seu índice, as empresas com atividades ligadas a Internet eque trabalhavam com preços “super-estimados” na bolsa Nasdaq perdiam seu valor. Coma queda de Nasdaq, o dinheiro havia sumido e a euforia terminado em tempo global comrelação as empresas.com.

O Livro Verde não trata da criação de uma sociedade da informação no Brasil, massim recodifica a sociedade brasileira no sentido de uma sociedade da informação. Essasociedade tem como características marcante a explosão da quantidade de informaçõesdisponíveis, pelo potencial efeito e uso dessas informações disponíveis na geopolítica glo-

1O tema da inclusão social e digital será abordado com mais detalhes na Seção 2.4 deste capítulo.

Aspectos Técnicos e Sociais da Internet 17

bal, pela presença de maior produtividade em menos tempo e pelos efeitos da globalização.No entando, essas características continuam a serem as peculiaridades que o Livro Verdebuscava adequar o país brasileiro para melhor participação nesta sociedade da informação.Nesse contexto de ações para a sociedade da informação torna-se importante comentardois documentos do Governo Federal:

Guia Livre – Referência de Migração para Software Livre do Governo Federal: Este do-cumento tem como objetivo prioritário formular orientação para a migração para softwarelivre de órgãos integrantes da Administração Pública Federal, em consonância com di-retrizes dos comitês técnicos. (MIN. PLANEJAMENTO, 2004)

e-Ping Padrões de Interoperabilidade de Governo Eletrônico : Uma arquitetura que de-fine um conjunto mínimo de premissas, políticas e especificações técnicas que regu-lamentam a utilização de TIC no Governo Federal, estabelecendo as condições deinteração com os demais poderes e esferas de governo e com a sociedade em geral.(MIN. PLANEJAMENTO, 2006)

2.2 NASCIMENTO E EVOLUÇÃO DA INTERNET

Por Joaquim Quinteiro Uchôa

Nos últimos dez anos, vem sendo veiculado na mídia impressa e televisiva o aumentode notícias sobre a Internet, com especial destaque para fatos envolvendo sites de relaci-onamentos ou de forte interação com o usuário. A Internet está cada vez mais tornandoum espaço de trocas de informações, experiências e conhecimentos entre seus participan-tes, sendo que ela atualmente possibilita um nível de interação nunca antes experienciadoem outros meios de comunicação. Com isto, é importante destacar que a Internet é atual-mente muito mais um meio de comunicação que um conjunto de protocolos de Redes deComputadores ou a simples interligação física entre computadores.

Por outro lado, alguns dos recentes fenômenos de sucesso da Internet, como a Wikipe-dia2, são cada vez mais comparados ao Linux ou ao software livre, pela forma de desenvol-vimento colaborativo. Dessa maneira, este texto tem o objetivo de fazer um breve históricoda Internet, destacando os elementos de sua evolução que mais fortemente tangenciam aevolução do software livre.

2Wikipedia: http://www.wikipedia.org.

18 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

2.2.1 Origens e Motivações

Sob um ponto de vista técnico, a Internet é a maior rede de computadores existentena atualidade, sendo o resultado da interconexão de milhares de redes eletrônicas, criandoum meio de comunicação global (REDE NACIONAL DE PESQUISA, 1996). Cada umadessas redes possui estrutura e objetivos próprios, bem como utilizam-se de tecnologiasdiferenciadas. A interconexão entre elas é garantida pelo uso de uma linguagem comum,os protocolos de comunicação, que irão permitir a comunicação entre equipamentos comdiferentes plataformas de hardware e software.

Existe uma versão corrente do nascimento da Internet que apregoa uma origem militarpara a mesma, com o nome de ARPANET, em 1969. A teoria vai além, sugerindo que asua criação foi motivada para que redes militares pudessem operar, inclusive, em caso deataque nuclear. Esse exemplo de teoria pode ser verificado no verbete da versão portu-guesa da Wikipedia3. Entretanto, como apontado por (PETER, 2004), a Internet não surgiuno Pentágono, não surgiu na ARPANET, e muito menos foi criada com objetivos militares;sendo, inclusive, que a teoria de ataque nuclear não fez parte do design da Internet.

A visão da Internet surgida com fins militares advém de relações com seu contexto decriação. No início da década de 50, a Força Aérea dos Estados Unidos, deu início a umprojeto ambicioso, denominado SAGE (Semi-Automatic Ground Environment), como umaresposta à repercussão da explosão da primeira bomba de hidrogênio soviética em 1953(MARCELO, 2006). Esse sistema consistia de vinte e três centros de processamento dedados, com dois computadores de grande parte em cada, operando de forma distribuída,interligados entre si por linhas telefônicas.

Quando o SAGE ficou totalmente pronto, em 1961, ele já era inútil contra as novasameaças, mísseis balísticos intercontinentais, mas trouxe uma série de inovações, entreelas o uso do MODEM, monitores de vídeo interativos e metodologias de Engenharia deSoftware. Essa experiência, obviamente foi extendida para outros projetos. Por volta dessaépoca, o mundo assistia a uma liderança isolada dos soviéticos na corrida espacial. Essaliderança ficou visível com o lançamento do Sputnik I, primeiro satélite artificial e o primeiroobjeto fabricado pelo homem a orbitar da Terra.

Como resposta ao lançamento do Sputnik, o Departamento de Defesa dos EstadosUnidos criaram a ARPA (Advanced Research Projects Agency) em 1957, uma agência depesquisas com o objetivo de reestabelecer os EUA na vanguarda da ciência e tecnologia4.Essa agência tinha a missão de prevenir surpresas tecnológicas, como o Sputnik, com pes-

3Verbete: http://pt.wikipedia.org/wiki/Internet, vizualizado em 17 de abril de 2007.4Como apontado em uma página no site da DARPA (http://www.darpa.mil/body/arpa_darpa.

html), a ARPA teve seu nome modificado para DARPA (Defense Advanced Research Projects Agency) em

Aspectos Técnicos e Sociais da Internet 19

quisas de alto risco, seja casos de tecnologias em estágios iniciais ou além dos objetivosdos departamentos militares. A ARPA quase foi desfeita no ano seguinte, quando seu pro-grama de satélite passou para a recêm-criada NASA (National Aeronautics and Space Ad-ministration). Ela só sobreviveu porque mudou o foco de suas pesquisas básicas de longoprazo, com a participação das universidades, até então fora dos planos do Departamentode Defesa.

Como apontado em (MARCELO, 2006), essa reinvenção tornou a ARPA uma agênciade elite, respeitada cientificamente. Além disso, sua nova direção promoveu uma des-centralização do gerenciamento, valorizando mérito científico e técnico acima de objetivosmilitares. Houve um desmembramento da ARPA em pequenas unidades, para identicar no-vas áreas de pesquisas de longo prazo, sendo que uma dessas áreas foi a de Comando,Comunicação, Controle e Inteligência. Em 1962, foi contratado para um de seus escritó-rios, o IPTO (Information Processing Techniques Office), o psicólogo experimental JosephLicklider, que trabalhou anteriormente no SAGE e na BBN, uma empresa formada por ex-professores e alunos do MIT.

Licklider tinha à época grande contato com pesquisas sobre computadores e havia de-senvolvido toda uma visão a respeito da simbiose homem-máquina. Nessa visão a intera-ção entre homens e computadores ocorria não apenas para comandar e controlar, mastambém para interligar várias técnicas de computação eletrônica, que estavam separa-das na época. Entre as pesquisas que passaram a ser desenvolvidas sob seu comando,encontravam-se as sobre novas interfaces homem-computador e sistemas de tempo com-partilhado (time sharing systems), uma forma de compartilhar os recursos de um computa-dor entre vários usuários.

Licklider, após tomar posse na ARPA, deu início a uma série de memorandos deno-minados “On-Line Man Computer Communication” (Comunicação Online entre Homens eComputadores) (LICKLIDER, 1962). Nesses memorandos, ele discutia a idéia de uma redegalática, um conjunto global de computadores interconectados, através dos quais qualquerum poderia facilmente acessar dados e programas de qualquer local. Como apontado em(LEINER et al., 1997) e (LEINER et al., 2006), os conceitos de rede galáctica de Lickliderestavam muito próximos, em essência, à Internet atual. Apesar disso, Licklider deixou aARPA em 1964, sem iniciar o projeto dessa rede.

Seu substituto, Robert Taylor, começou a arquitetar um projeto em 1966 para interligaros diferentes computadores das instituições de pesquisas financiadas pela ARPA, objeti-vando otimizar o uso desses caros recursos computacionais e desenvolver conhecimento

1972, voltando a chamar ARPA em 1993. A partir de 1996, o nome voltou a ser DARPA mais uma vez, o qualpersiste até hoje.

20 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

de técnicas de comunicação de dados através de redes de computadores. Como apontadoem (MARCELO, 2006), esse foi o ponto de partida para a ARPANET, a rede de computa-dores da ARPA, sem que, na época, soubesse como implantar direito uma rede com essacomplexidade e com um histórico de vários projetos de redes da ARPA falhos na interco-municação de máquinas diferentes.

É importante ressaltar, portanto, que a ARPANET em si foi criada para compartilha-mento de recursos entre instituições de pesquisa, via time sharing. A idéia era que umainstituição pudesse utilizar poder computacional de outras instituições, quando fosse ne-cessário efetuar cálculos mais complexos. Isso, como bem destacado em (PETER, 2004),não só não tinha objetivos militares, como não pode ser considerada a origem da Internet.Apesar disso, é óbvia a importância da ARPANET para a Internet em si, tanto por seussucessos na interligação de computadores de diferentes arquiteturas, como por duas desuas importantes contribuições: o protocolo TCP/IP e o sucesso no uso de comutação depacotes (packet switching).

A comutação de pacotes é uma técnica de comunicação em redes, em que pacotes(unidades de informação) são roteados entre links de dados compartilhados, havendo ocompartilhamento do canal por vários usuários. Esse tipo de transporte contrasta com co-mutação de circuitos (circuit switching), que estabelece uma conexão dedicada entre doisnós da rede, para uso exclusivo durante o tempo da comunicação. Um exemplo familiar derede utilizando comunicação por comutação de circuitos mais comum é a rede telefônica:quando é feita uma conexão entre dois usuários, é estabelecido um circuito entre os doisaparelhos telefônicos. O exemplo mais comum de rede por comutação de pacotes é, ob-viamente, a Internet, em que um pacote de dados é roteado, dá origem ao destino, entrediversos pontos da rede.

A técnica de comutação de pacotes permite, entre outros, que o caminho de dadosentre dois nós da rede seja alterado a qualquer momento, o que propicia uma maior ro-bustez na comunicação. Apesar das vantagens aparentes desse tipo de técnica nos diasatuais, não havia qualquer consenso na década de 60 sobre o seu uso, e vários pesqui-sadores duvidavam das reais possibilidades de sucesso com seu uso. O que garantiu oseu uso foi a grande variedade de resultados em experiências, utilizando diversas formasde implantação. Os conceitos básicos dessa técnica foram originados de forma indepen-dente e simultânea nos EUA e na Inglaterra, sendo que o primeiro artigo sobre a teoria decomutação de pacotes foi publicado em julho de 1961, por Leonard Kleinrock.

Nos EUA, a Força Aérea havia encomendado à RAND Corporation, um projeto de co-municação mínima essencial, permitindo, em caso de ataque inimigo, alguma forma de dis-parar uma operação de contra-ataque. Paul Baran, principal engenheiro da RAND, propôso uso de redes de comunicação distribuídas (não-centralizadas) (BARAN, 1964), com flexi-

Aspectos Técnicos e Sociais da Internet 21

bilidade de comutação de pequenos blocos de mensagens5. De certa maneira, talvez sejaesse fato a motivação para uma visão “militarista” do surgimento da Internet. Ainda maisque a ARPANET foi construída com consultoria do próprio BARAN, sendo apresentadacomo um exemplo de rede recomendada pela RAND.

Como comentado em (MARCELO, 2006), os pontos da rede operariam o Hot PotatoRouting (roteamento da batata quente), ou seja: assim que um nó recebesse um pacote,deveria determinar a melhor rota ao destino e encaminhar o pacote ao próximo nó do ca-minho. A RAND, por fim, enviou um relatório à Força Aérea que solicitasse à empresa detelefonia na época (AT&T) a construção dessa rede, uma vez que ela apenas fazia pes-quisas e não projetos. A AT&T respondeu na época que essa rede não funcionaria, e quenão iria construi-la para incompatibilizar e competir consigo mesma. Assim, como tambémdestacado em (MARCELO, 2006), “A maior ameaça às novas redes de comunicações nãoestava na União Soviética, mas no monopólio da companhia telefônica norte-americana”.

Em 1965, a RAND emitiu um parecer formal recomendando que a Força Aérea atuassesem a ajuda da AT&T. Estava tudo caminhando para isso, quando foi criada uma novaagência, a DCA (Defense Communications Agency) para gerenciar todos os sistemas decomunicação militares, constituída por uma equipe focada em tecnologias analógicas. Comisso, Baran percebeu que, se o projeto fosse colocado em prática, não iria funcionar e criariaproblemas com a técnica proposta. Ele preferiu acionar seus contatos para “congelar” oprojeto até um momento mais propício (BARAN, 1999).

Na Inglaterra, por sua vez, havia também uma preocupação com o atraso científicoe tecnológico. Em 1964, o governo assumiu o controle de um projeto que visava levar àindústria de informática inovações surgidas nas universidades. Donald Davies assumiu ocomando desse projeto, o ACTP (Advanced Computer Techniques Project) e priorizou pes-quisas em interface homem-computador e sistemas de tempo compartilhado (MARCELO,2006).

As pesquisas esbarraram também no sistema de comunicação vigente, projetado parauso de comutação de circuitos analógicos para tráfego de voz. Davies, assim como Baran,possuia formação em Computação, e propôs a divisão das mensagens em pedaços detamanhos fixos, que denominou de pacotes, termo que prevalece até hoje. Davies propôsa implantação de uma nova rede, mas apesar de alinhado ao discurso de modernizaçãotecnológica do governo, a burocracia e o desinteresse não levaram o projeto adiante. Comoapontado em (MARCELO, 2006), foi construída apenas uma rede experimental, a Mark I,que funcionou de 1967 a 1973. Em 1973, essa rede foi substituída pela Mark II, que ficouem operação até 1986.

5Esses blocos no futuro receberam o nome de pacotes.

22 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Apesar de ter deixado a ARPA sem implementar seu projeto de rede, Licklider influen-ciou vários pesquisadores sobre a importância de seus conceitos de rede, entre eles RobertTaylor e Lawrence Roberts (LEINER et al., 1997). Assim, sob a liderança de Robert Taylor,o IPTO seguia firme na decisão de interligar os computadores das instituições financiadas.Taylor contratou Lawrence Roberts, que fez uma apresentação do projeto da ARPANET emum simpósio sobre Sistemas Operacionais em 1967, promovido pela ACM (Association forComputing Machinery).

Nesse simpósio, Roberts pôde entrar em contato com Donald Davies, ficando a par dofuncionamento das redes por comutação de pacotes estudadas pelos britânicos, bem comoas pesquisas na área pela RAND. Isso convenceu Roberts das vantagens do uso de redesde pacotes para a ARPANET, que contou com a consultoria do próprio Baran (MARCELO,2006). Obviamente, a implantação da ARPANET tinha vários desafios a enfrentar:

• críticas da poderosa DCA, por causa do uso de rede de pacotes;

• oposição de algumas instituições que não queriam compartilhar seus preciososcomputadores e que viam no projeto a possibilidade de redução do orçamento fu-turo;

• grande variedade de computadores que tinham que ser interconectados.

A ARPA teve autonomia e força para passar pelas objeções. Como forma de conectarcomputadores incompatíveis entre si, a ARPA utilizou a estratégia de implantar uma ar-quitetura que permitisse dividir as tarefas de conectividade em camadas. Essas camadasestavam dispostas em uma hierarquia conceitual, indo do nível concreto (sinais elétricos)ao abstrato (aplicações dos usuários), em uma forma semelhante às estruturas atuais deredes de computadores. Ao adotar essa estratégia, a ARPA tornou mais gerenciável a com-plexidade do sistema e permitiu que o desenvolvimento da rede pudesse ocorrer de formadescentralizada. Obviamente, os projetistas da ARPANET não tinham idéia de como se-parar as funções da rede em camadas, muito menos como as interfaces e protocolos decomunicação iriam funcionar (MARCELO, 2006).

Uma das preocupações críticas àquela época era sobre como fazer o roteamento depacotes em cada um dos diferentes sistemas operacionais que eram utilizados nas institui-ções. A alternativa foi a de utilizar minicomputadores como nós intermediários, denomina-dos de IMP (Interface Message Processors), precursores dos atuais roteadores. Cada IMPestava conectado a um único host, mas os vários outros IMPs, através de linhas telefônicas.Dessa forma, a ARPANET começou com duas camadas conceituais.

Outra estratégia que propiciou o desenvolvimento da ARPANET foi o estilo de gerenci-amento do projeto, muito próximo do estilo universitário, com vários elementos descentrali-zados e informais. Por exemplo, o grupo que desenvolveu o NCP Network Control Protocol,

Aspectos Técnicos e Sociais da Internet 23

protocolo de comunicações da ARPANET, era formado por alunos de graduação. Os tra-balhos desses alunos foram inicialmente organizados por um deles, Stephen Crocker, emdocumentos denominados RFCs (Request For Comments (solicitação de comentários). AsRFCs inicialmente eram impressas e distribuídas aos membros do grupo via correio tradi-cional. Elas criaram uma cultura de colaboração e interação para o desenvolvimento deidéias relacionadas à rede que são, até hoje, os documentos de registro principal para ospadrões da Internet, mantendo o mesmo espírito de 40 anos atrás. De certa maneira, elasprenunciaram, numa escala restrita e especializada, o sucesso de colaboração em rede,caso do software livre e, mais recentemente, da Wikipedia.

Em setembro de 1969, foi instalado o primeiro IMP da ARPANET, na UCLA (Universityof California at Los Angeles), onde trabalhava Kleinrocks. Os trabalhos iniciais dele emcomutação de pacotes propociaram a escolha dessa instituição para ser o primeiro nó darede, bem como o responsável pelo seu gerenciamento. Antes do final desse mês, quatronós estavam interconectados, utilizando linhas telefônicas da AT&T: a UCLA, a UCSB (Uni-versity of California at Santa Barbara), a UU (University of Utah) e o SRI (Stanford ResearchInstitute).

A BBN foi a empresa escolhida para implementar os IMPs, com projeto tendo por gerên-cia Robert Kahn. Em 1972, um funcionário da BBN, Ray Tomlinson, escreveu um programapara enviar e receber mensagens eletrônicas (eletronic mail, ou e-mail), com o objetivo decoordenar as atividades dos técnicos e cientistas da ARPANET. O e-mail tornou a partirdaí a aplicação mais utilizada na Internet, contrariando totalmente a visão de que a ARPA-NET seria utilizada principalmente para o compartilhamento de recursos computacionais,via time sharing. A aplicação inicial de Ray Tomlinson foi extendida pouco depois para quepudesse listar, selecionar, arquivar e responder mensagens, o que mostra o espírito decompartilhamento e colaboração na computação em seus dias iniciais.

Em outubro de 1972, o IPTO organizou uma grande e bem sucedida demonstração daARPANET, o que serviu para convencer até os mais céticos sobre as vantagens das redespor comutação de pacotes. A partir daí houve todo um interesse crescente na ARPANET,com a visão de uma rede formada por múltiplas redes independentes. Dessa maneira, aARPANET seria uma rede ligando outras redes (uma “inter-net”), em que cada rede pode-ria ser modelada para atender às necessidades específicas do ambiente e seus usuários.Como apontado em (LEINER et al., 1997), a idéia de uma arquitetura aberta, introduzidapor Kahn, foi guiada por quatro regras críticas:

1. Cada rede deveria funcionar por si só e não deveria precisar de alterações internaspara ser conectada à ARPANET.

24 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

2. Comunicação deveria ser feita na base do melhor esforço: se um pacote não che-gasse ao destino, ele deveria ser retransmitido rapidamente da origem.

3. Caixas pretas (depois chamados de roteadores ou gateways) deveriam ser utiliza-das para conectar as redes.

4. Não deveria haver controle global no nível de operação da rede.

A expansão da ARPANET trouxe novos problemas, entre eles a dificuldade de uso doNCP em outros tipos de meio (redes por rádio ou satélite). Foram criadas redes nesseformato, mas todas incompatíveis entre si. Para interconectar essas redes heterogêneas foicriado o Projeto Internet, donde surgiu o nome atual da rede, com a participação de VintonCerf, que trabalhou no desenvolvimento e projeto do NCP e Kahn. Em 1974, é publicadoum trabalho dos dois com a proposta de um protocolo para a intercomunicação de redesde pacotes, o TCP (CERF; KAHN, 1974). Interessante observar que inicialmente o TCPfoi enxergado como um programa para controlar a transmissão e aceitação de mensagens,sendo inicialmente denominado Transfer Control Program.

Como apontado em (LEINER et al., 1997), o TCP mostrou-se adequado para circuitosvirtuais, incluindo aplicações de transferência de arquivos e logins remotos, mas não paraaplicações avançadas de rede, como transmissão de voz em pacotes. O TCP foi reorgani-zado em dois protocolos: 1) o IP (Internet Protocol), que providenciava endereçamento eencaminhamento dos pacotes; 2) o TCP (Transfer Control Protocol), responsável pelo con-trole de fluxo e recuperação de pacotes perdidos. Para aplicações que não precisavam doTCP, foi criada uma alternativa, o UDP (User Datagram Protocol), que possibilitava acessodireto ao IP.

O TCP/IP foi implementado inicialmente pela empresa BBN, em sistemas de grandeporte. Quando surgiram os desktops, pensou-se inicialmente que o TCP/IP seria muitogrande e complexo para poder ser executado em computadores pessoais. Entretanto, Da-vid Clark e sua equipe no MIT produziram uma implementação para as estações XeroxAlto e para o IBM PC, provando que estações de trabalho também poderiam fazer parteda Internet. Por fim, a ARPA encomendou à UCB (University of California at Berkeley) aimplementação do TCP/IP no BSD Unix (LEINER et al., 1997). Essa implementação foi umelemento chave para a adoção em larga escala da Internet.

O sucesso da ARPANET fomentou o surgimento de várias outras redes, em geral cadauma com sua própria filosofia, protocolos e aplicações. Isso exigia um grande esforço paraa implementação dos (gateways), aplicações ou dispositivos para interligar redes distintas.Em 1983, entretanto, a transição da ARPANET para o TCP/IP foi finalizada, tendo corridotudo bem, apesar dos receios iniciais. Além disso, propositalmente a ARPANET deixou de

Aspectos Técnicos e Sociais da Internet 25

rodar aplicativos suportando outros tipos de rede, inclusive NCP, o que forçou a migraçãode todas as redes para adoção do TCP/IP.

Dessa maneira, por volta de 1985, a Internet estava estabelecida como uma tecnologia,suportando uma grande comunidade de desenvolvedores e pesquisadores e começandoa ser utilizada por outras comunidades. A ARPANET havia tornado o backbone de interli-gação entre as várias redes acadêmicas. O crescimento da Internet fomentou mudançastecnológicas e administrativas, entre elas a divisão dos endereços IPs em classes e doCIDR (Classless Interdomain Routing). Para dar conta desse roteamento, cada vez maismutável, as tabelas de roteamento deram origem a protocolos dinâmicos de roteamento,como o IGP (Interior Gateway Protocol) e EGP (Exterior Gateway Protocol). Na décadade 80 também foi criado o DNS, por Paul Mockapetris, para substituir a tabela fixa de no-mes dos hosts, permitindo uma arquitetura escalável e hierárquica para a denominação depontos da rede.

Em 1984, outro fato importante foi a separação da ARPANET da rede militar dos EUA,chamada MILNET, evento que teve suas motivações iniciais na década anterior, quando aARPA foi chamada a se focar em projetos militares. Em 1985, a NFS (National ScienceFoundation) iniciou o programa de criação da NSFNET, com o objetivo de oferecer infra-estrutura de rede à toda comunidade acadêmica. A NSF patrocinou a criação de um novobackbone, passando de 6 nós com velocidade de 56Kbs para 21 nós de 45Mbs. Houve,portanto, uma explosão da rede, e a ARPANET foi desativada em 1990, após duas décadase meia de contribuição à comunidade acadêmica.

Quando assumiu o controle da NFSNET, em 1986, Stephen Wolff reconheceu a neces-sidade de desenvolver uma estratégia para garantir uma infraestrutura de rede que supor-tasse a comunidade acadêmica e de pesquisa, ao mesmo tempo que ficasse independentedo financiamento do governo. A principal estratégia adotada foi a de encorajar os escritóriosregionais da NFSNET para procurar consumidores comerciais. Entretanto, ela proibia o usode seu backbone para uso não acadêmico. Isso encorajou o tráfego de rede local em nívelregional e fomentou a criação de redes particulares de longa distância.

Em 1995, o backbone da NFSNET deixou de receber fundos do governo, uma vez queos backbones privados eram muito melhores. Nessa época Al Gore já havia criado umametáfora significativa para a Internet: Information Superhighway (Autopista da Informação),havendo toda uma “febre” de corrida para a Internet. Essa corrida foi motivada pela Web,uma tecnologia surgida na Europa, mais especialmente no CERN (Centre European pourla Recherche Nucleaire), maior centro de pesquisa à época.

Em 1989, Tim Berners-Lee, um dos pesquisadores desse centro, propôs uma arqui-tetura para a Web, bem como o protocolo HTTP. Em 1992, surge o primeiro navegador

26 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

gráfico conhecido do público, o Mosaic para o ambiente X do UNIX, desenvolvido por MarcAndersen, futuro fundador da Netscape. O primeiro navegador gráfico havia sido criadopelo próprio Tim, mas funcionava apenas em computadores NEXT, poucos difundidos naépoca.

A partir da Web a Internet difunde-se juntamente com o hipertexto6 e um uso cada vezmaior de recursos multimídias, fazendo-se presente em todos os pontos do globo. Deve serobservado, entretanto, que o conceito de hipertexto é anterior ao nascimento da Internet eserá discutido em capítulo posterior nesta apostila.

Conforme (LEE, 1996), o princípio básico da arquitetura Web consiste em poucas res-trições para o seu formato de funcionamento na rede. Assim, no início de criação da Web, aproposta foi a de criar poucos protocolos para deixar a rede o mais flexível possível e mantercompatibilidade entre os padrões. Assim, o antigo protocolo FTP poderia ser utilizado juntocom o novo protocolo HTTP no espaço de endereçamento. Além disso, os documentos detextos convencionais poderiam ser mixados com novos documentos em hipertexto.

Essa compatibilidade permitiu que a Web se tornasse um espaço de compartilhamentode informações, através do qual as pessoas poderiam se comunicar. A função maior daWeb, portanto, consiste em incluir informação pública e privada. Nesse espaço, o hiper-texto, objetiva ligar idéias e pensamentos que se relacionam com o contexto original dosdocumentos armazenados em sistemas de armazenamento de informações. Na Web, nãoexiste um sistema fechado de banco de dados para links7 - por isso é possível fazer refe-rências hipertextuais a vários documentos permitindo o grande crescimento de informaçõesreferenciadas em formas de links. Essa arquitetura assim estabelecida, dá liberdade àspessoas para que façam referências sem precisar consultar os destinatários, permitindo aamplitude de escalabilidade que a Web tem atingido atualmente.

O impacto da Web foi tão significativo que em 2000 explode a famosa bolha das dot-com. A partir de 1995, ocorreu um frenesi de investimentos especulativos na Internet e tec-nologias associadas, principalmente em empresas projetadas para operar exclusivamentena Web, que possuíam o sufixo .com em seu endereço eletrônico. Muitas dessas propostasnão vigoraram e, em 2000, ocorre uma fuga em massa do capital investido, principalmentena bolsa eletrônica NASDAQ. A retomada dos investimentos é inclusive fato recente, commaior moderação e estimulada pelo sucesso atual da Web 2.0, fenômeno abordado mais àfrente na Seção 2.3.9, neste módulo.

6Hipertexto - construído conforme as idéias originais de Vanevar Bush (BUSH, 1945).7Links: elo de ligação entre hipertextos, que permite “passar” com facilidade de um hipertexto para outro.

Aspectos Técnicos e Sociais da Internet 27

2.2.2 Internet no Brasil

No Brasil, o primeiro acesso à Internet deu-se pela Bitnet no Laboratório Nacional deComputação do Rio de Janeiro (LNCC) e pela Fundação de Amparo à Pesquisa do Estadode São Paulo (FAPESP). Tendo como base a Rede Bitnet, somente era possível a trocade e-mail pela Internet, sem conexão direta dos computadores à rede. Somente em 18 dejulho de 1989 nasceu a Internet brasileira com a inauguração do Alternex no Rio de Janeiro.Em 1991, a Fapesp consegue estabelecer as primeiras conexões à Internet e administrar odomínio “.br”.

Nessa mesma época foi implantada a RNP (Rede Nacional de Pesquisa), controladapelo CNPq, com o objetivo de expandir a rede interacadêmica. Até então, esses recur-sos de comunicação encontravam-se mais centrados a atender objetivos de comunidadesacadêmicas e contavam com as ligações providenciadas por fundações de pesquisa e doLNCC. Se a RNP restringia-se quase que exclusivamente à área de interesse da comu-nicação acadêmico-científico, algumas organizações não-governamentais, como o Ibase,passaram a fornecer as primeiras ligações de interesse privado.

Esse quadro transformou-se radicalmente a partir do final de 1994, quando órgãos comoMinistério das Comunicações e Ministério da Ciência e Tecnologia lançaram uma nota con-junta que mudou a política do governo para a área, passando a estimular o surgimento deprovedores privados de serviços Internet, de forma a atender as necessidades de todos ossegmentos da sociedade. É dai então que começam a entrar em funcionamento os primei-ros servidores Web do Brasil: o LSI (Laboratório de Sistemas Integráveis) na USP, a UFRJe a Escola do Futuro. Quando os provedores comerciais começam a propagar-se no Bra-sil. Isso possibilitou que a Internet migrasse dos centros de pesquisas universitárias para apopulação em geral.

Em 1999, a America Online inaugura seus serviços no país e a UOL lança no Brasil oBrasil Online, disponibilizando contas gratuitas de e-mail. Ainda é possível observar que umdos ápices do crescimento da Internet no Brasil deu-se mais precisamente no ano de 2000,através do aparecimento de mais de 11 provedores gratuitos. Através desta descrição,pode-se verificar que a Internet no Brasil teve seu crescimento significativo dentro da escalade conexão mundial.

Apesar do Brasil ainda ter deficiência de infra-estrutura, tanto em linhas telefônicasdisponíveis à maioria da população, como a baixa taxa de pessoas que possuem computa-dores, no ano de 1999, o Brasil já ocupava o 6o lugar na posição dos 15 países que maisusavam a Internet 8. Observa-se que os países que se encontram em posições mais van-

8Dados do instituto de pesquisa International Data Corp. de 1999 - são 27,8 milhões de linhas telefônicasno país para 166 milhões de habitantes.

28 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

tajosas no uso da Internet que o Brasil fazem parte do Primeiro Mundo (EUA, Japão, ReinoUnido, Canadá, Alemanha), os quais encontram-se muito avançados tecnologicamente. Épossível observar na mídia que o crescimento ao acesso à conexão Internet está ocorrendorapidamente no Brasil, tendência fortalecida pelo uso de projetos de expansão do acesso,e popularização da informática, como exemplo: o Projeto Computador Popular, Projeto OneLaptop per Child (OLPC), entre outros.

2.3 PRINCIPAIS SERVIÇOS DA INTERNET

Os sistemas na Internet comunicam-se enviando e recebendo pacotes de informação.Esses pacotes contêm parte dos dados componentes da informação, além de caracteres decontrole e endereçamento necessários para levar os pacotes aos seus destinos e remontá-los. Tudo isto é realizado pelos dois principais protocolos de controle de dados da Internet,o Protocolo de Controle de Transmissões e o Protocolo Internet (Transmission Control Pro-tocol/Internet Protocol), formando o que se chama na teoria de Redes de Computadores,arquitetura TCP/IP. O protocolo IP cuida dos transportes dos dados em si, enquanto que oTCP procura estabelecer conexões de transporte.

Quando um usuário solicita, por exemplo, a abertura de um site em seu navegador,há uma solicitação de uma conexão TCP. Dessa maneira, do navegador do usuário até oservidor do site solicitado, estabelece-se uma conexão virtual via TCP. Essa conexão virtualé efetuada através de portas lógicas, ligando-se uma porta cliente a uma porta servidora.Esse conceito de ligação é denominado de sockets.

O funcionamento da camada IP é enviar (rotear) pacotes da origem ao destino fi-nal. Para tornar isto possível, toda interface sob a rede precisa de um “endereço IP”.Um endereço IP consiste de quatro números (bytes) separados por pontos, por exemplo:“167.216.245.249”. Na versão atualmente em uso do protocolo IP (versão 4), cada númeroestá entre 0 e 255. As interfaces na mesma rede tende ter vizinhos com IP semelhan-tes. Por exemplo, a máquina com IP “167.216.245.250” situa-se próxima à máquina com oendereço IP “167.216.245.249”.

Cada interface de Rede IP tem um endereço. Isso implica que para estabelecer umaconexão entre duas máquinas na Internet é preciso que uma saiba o endereço da outra.Dado que os seres humanos são melhores para memorizar nomes que números, foi criadoum sistema que permite associar a cada endereço IP um ou mais nomes, facilitando oestabelecimento de conexões por parte do usuário. O Sistema de Nomes de Domínio (DNS– Domain Name System) associa um ou mais nomes a um dado endereço IP, permitindoque, por exemplo, que seja usado “www.linuxcare.com” dentro de um navegador, ao

Aspectos Técnicos e Sociais da Internet 29

invés de “167.216.245.249”. Esse serviço é implementado por um servidor DNS e o usuárioprecisa de um endereço de IP de pelo menos um desses “servidores de nomes” em suaconfiguração de rede.

Consultas e respostas aos serviços DNS são pequenas e pouco falhas. Nesse tipo desituação, o protocolo TCP geralmente não é utilizado. Isso porque o TCP oferece serviçosde retrotransmissão, ordenação e reabilitação geral de pacotes, mas com um custo depacotes extras de envio através da Rede. Ao invés do TCP, o DNS e alguns outros serviçosutilizam o Protocolo de Datagrama do Usuário (UDP - “User Datagram Protocol”), que nãooferece essas características do TCP (não requisitadas por esses serviços). Mais sobreUDP e TCP pode ser visto em (SOARES; LEMOS; COLCHER, 1995).

Um usuário doméstico, não conectado diretamente à Rede, utiliza um protocolo adicio-nal, o Protocolo Internet de Linha Serial (SLIP - “Serial Line Internet Protocol”) em desuso,ou o Protocolo Ponto a Ponto (PPP - “Point to Point Protocol”). São protocolos que objeti-vam tornar um microcomputador equipado com modem a um nó de Internet, ou seja, estesdois protocolos definem um conjunto de regras que permitem que o computador usuáriopossa comunicar-se com o computador do seu servidor (e por conseqüência com toda arede) através do modem e da linha telefônica.

Assim, quando o usuário disca seu modem para um Provedor de Acesso (ISP - “InternetService Provider ”), e estabelece a conexão por modem, o sistema operacional não enviaos pacotes IP diretamente a ele. Isso é feito geralmente pelo PPP, através de uma conexãodiscada (dial up). Como existem vários usuários dial up no mundo, eles geralmente não temseu próprio endereço de IP: Seus ISPs atribuem temporariamente um IP dinâmico atravésde negociação PPP. Observe que o usuário precisa ter em seu computador um softwarePPP que faça a ligação entre seu micro e o ISP.

2.3.1 World Wide Web - WWW

A World Wide Web, Web ou W3 incorporou e superou a maior parte dos sistemas in-formativos existentes, tornando-se o serviço da Internet que mais tem crescido nos últimosdez anos. É comum hoje que ela seja usada como forma de acesso a outros serviços, porexemplo pelas aplicações: WebMail, fóruns Web, senão bate-papo via Web. Além disso,vários outros software permitem edições colaborativas e são acessados via Web, como porexemplo: Google Map, Lotus Notes, Wikis, entre outros. Como a maioria destas ferramen-tas fazem parte da Web 2.0, elas serão abordadas logo a seguir na seção específica.

Através de um programa cliente denominado navegador (Browser) Web, um usuáriopode acessar todos esses tipos de serviços mencionados, além dos serviços tradicionaisda Internet, como: servidores Golpher, FTP, News e HTTP. Esses aplicativos tem favorecido

30 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

interface hipermídia point and clic (apontar e clicar) que contribui para a popularização daInternet.

A Web é um serviço hipermídia9 que permite um acesso universal a uma enorme quan-tidade de documentos em todo o mundo, possibilitando a navegação na Internet através desaltos de um documento a outro, mediante links (vínculos), criando um enorme documento“virtual”. Na Web esses documentos estão em geral organizados na forma de páginasHTML (uma linguagem de descrição de hipertextos). Cada documento na Web, seja eleHTML ou não, possui um endereço próprio denominado URL (Uniform Resource Locator,Localizador Uniforme de Recursos).

O uso de URL permite localizar e conectar a qualquer documento em qualquer servidorda Web. A página inicial da Universidade Federal de Lavras, por exemplo, é localizadapela URL http://www.ufla.br/. Para poder navegar na página da UFLA, é necessário digitaresse endereço no campo location (endereço ou localização) do navegador, no Firefox porexemplo. O prefixo “http” da URL indica o protocolo utilizado para recuperar o documento.HTTP é o protocolo mais comum, entretanto a maioria dos navegadores são capazes decomunicarem-se com servidores utilizando outros protocolos, como FTP, ou de iniciar oprograma especializado em outros protocolos, como um leitor de e-mail.

Os principais aplicativos de navegação atualmente disponíveis para o Linux são capazesde exibir a totalidade de páginas da Internet e são reconhecidos como sendo mais seguros(isto é, resistentes às tentativas de instalação de vírus) do que os programas mais popularesem Windows. O principal deles é o Firefox, navegador derivado do Mozilla, que por suavez foi o resultado da abertura do código do navegador Netscape e sua transformaçãoem software livre. Na verdade, versões do Nescape à partir da 6.0 são simplesmente ocódigo do Mozilla, acrescido de um ou outro plug-in que não é software livre (como o Flashda Macromedia)10 e serviços de ajuda para instalação. Mozilla pode ser vizualizado naFigura 2.2 e Firefox na Figura 2.1, ambos também podem ser utilizados em outros sistemaoperacional, como o Windows.

O Gecko11 é o engine de renderização de HTML do Mozilla e Firefox. Ele foi utilizadoem vários outros projetos software livre, como os navegadores Web Galeon12 e Epiphany13,além de leitores de e-mail como, o Thunderbird, todos focados no desktop Gnome.

9O significado deste termo e suas implicações serão aprofundados no Capítulo 3.10O Flash pode ser instalado junto ao navegador Mozilla ou Firefox. Mas, a licença não-livre do Flash

impede que ele seja distribuído dentro do instalador destes programas. O mesmo ocorre com outros plug-inspopulares, como o QuickTime e o Acrobat Reader. Nestes casos, existem outros softwares livres capazes decumprir com as mesmas funções.

11http://www.mozilla.org/newlayout/.12http://galeon.sourceforge.net/.13http://epiphany.sourceforge.net/.

Aspectos Técnicos e Sociais da Internet 31

Figura 2.1: Navegador Web Firefox

O navegador Konqueror14 é fornecido pelo ambiente KDE. Esse navegador foi criadode forma independente do Mozilla e serviu de base para o navegador Safari15 incluso noMacOS X, que infelizmente é software proprietário. Durante anos o Konqueror foi conside-rado o navegador mais leve e poderoso para Linux. Mas, hoje o Firefox e Mozilla costumamapresentar melhores resultados, inclusive em páginas que estão fora dos padrões do W3Ce usam características (ou mesmo erros) do Internet Explorer da Microsoft. Também po-dem ser utilizados em Linux alguns navegadores proprietários como o Opera16, que setornou conhecido dada a sua velocidade e por possuir executável de pequeno tamanho,comparado aos demais.

14http://docs.kde.org/stable/en/kdebase/konqueror/index.html.15http://www.apple.com/macosx/features/safari/.16http://www.opera.com/products/desktop/.

32 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Figura 2.2: Navegador Web Mozilla

Ainda precisa ser mencionado os navegadores em modo texto não interativos. A utili-dade do uso desses aplicativos ocorrem em ambientes remotos ou em servidores que nãotem ambiente gráfico. Os dois navegadores mais conhecidos em modo texto são o Lynx17

e o Links18. Também pode ser citado o Wget19, que permite em um único comando criarum espelho local de um site web completo, apontando o programa para a página inicialdeste site e pedindo que ele siga todos os links que não apontam para outro site.

2.3.2 Correio Eletrônico

O correio eletrônico (e-mail) é um dos serviços mais utilizados na Internet, bem comoum dos responsáveis pela sua difusão. Ele permite que duas pessoas possam enviar men-sagens escritas, contendo ainda informações em diversos outros formatos (imagens, áu-dio e outras aplicações) associados ou “anexos” à mensagem (attachment). Para poderbeneficiar-se deste serviço, basta que se tenha acesso a uma conta de correio na Internet.

17http://lynx.isc.org/.18http://links.twibright.com/.19http://www.gnu.org/software/wget/.

Aspectos Técnicos e Sociais da Internet 33

Em geral, uma mensagem leva poucos segundos ou minutos dependendo da quantidadede informações que se envie para chegar até o destino.

Essa rapidez de envio de uma mensagem pelo e-mail está diluindo a distância e otempo. Por isso, considera-se esse recurso tecnológico de comunicação revolucionário.Não é difícil imaginar a lentidão do processo de distribuição de separatas e textos acadê-micos antes da Internet. Ou, em empresas, o tempo de envio de contratos, memorandos enotas fiscais.

Os endereços de e-mail são formados por um nome de caixa postal anexado a um nomeDNS, separados por um sinal de “arroba” ou @. Por exemplo, “[email protected]”. O“nome de caixa postal”, em geral é igual ao nome de login de um usuário em um provedorInternet ou no servidor que fornece o serviço de e-mail para a empresa. O nome DNS, emgeral, é o nome de domínio do provedor ou empresa.

O nome da caixa postal também pode ser o nome de um alias, que remete para a caixapostal real (que tem outro nome e está possivelmente em outro domínio); ou um nome degrupo (lista de e-mail), que irá replicar todas as mensagens recebidas para várias caixaspostais associadas ao grupo. O envio de e-mail depende fortemente do DNS, não só porusar os nomes de domínio para identificar os destinatários das mensagens, mas tambémporque são os servidores DNS que fornecem a localização do servidor de e-mail ao qualdevem ser entregues todas as mensagens endereçadas para um determinado domínio.Então, embora seja possível ter um servidor Web, sem ter um domínio DNS próprio (fazendoa conexão diretamente ao endereço IP do servidor), não será possível fazer o mesmo comum servidor de e-mail, pois a mensagem não será endereçada para este servidor. De umaforma geral, uma mensagem de e-mail possui:

• um remetente (from), especificado pelo endereço eletrônico de quem envia a men-sagem;

• um ou mais destinatários (to), especificados por um ou mais endereços eletrônicosseparados por vírgula;

• um ou mais receptores de cópia (cc), especificados por um ou mais endereçoseletrônicos separados por vírugula, para os quais será enviado uma cópia da men-sagem;

• um ou mais receptores de “cópia cega” (bcc), especificados por um ou mais ende-reços eletrônicos separados por vírugula, para os quais será enviado uma cópia damensagem sem que os demais destinatários sejam informados disto;

• um assunto (subject), campo onde especifica-se o teor da mensagem, facilitando aidentificação de seu conteúdo;

• o corpo da mensagem (body), onde vai a mensagem propriamente dita;

34 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

• anexos (attachments), arquivos binários ou em modo texto que são enviados juntoà mensagem.

Existem vários clientes (leitores) de e-mail em Linux, satisfazendo as diversas neces-sidades de seus usuários. Era comum ter estes programas embutidos em navegadoresWeb, como por exemplo no Netscape e no Mozilla. Mas, hoje o mais comum é usar umprograma independente. No Linux, os mais populares são o Evolution20, KMail21 e Thun-derbird22, esse último derivado do Mozilla e apresentado na Figura 2.3. Entre os leitorespara usuários de modo texto, merecem destaque: o Pine23 e Mutt24.

Figura 2.3: Leitor de e-mail Thunderbird em Linux

Alguns provedores e empresas preferem não expor seu servidor de e-mail para a leituradireta de mensagens pelos usuários. Ao invés disto oferecem um acesso via Web, em queum programa atua como o leitor de e-mail e transforma as mensagens em páginas HTMLexibidas por um navegador. Este programa é chamado de WebMail e surge como uma

20http://www.gnome.org/projects/evolution/.21http://kmail.kde.org/.22http://www.mozilla.com/thunderbird/.23http://www.washington.edu/pine/.24http://www.mutt.org/.

Aspectos Técnicos e Sociais da Internet 35

opção a mais. Ou seja, o usuário pode ora usar um leitor de e-mail (por exemplo, quandoestiver em sua casa ou escritório) e ora usar o programa de WebMail instalado no servidorWeb do seu provedor, por exemplo, quando não estiver acessando via sistema operacionalLinux.

Com a difusão do uso do e-mail e sua importância, esse recurso acabou tornando aforma universal de comunicação, praticamente quase abolindo a circulação de informaçãoem papel em determinados ambientes. Em vários segmentos da sociedade atual, a solicita-ção de um serviço chega como correio eletrônico para o técnico que vai realizar o trabalho.Se a solicitação for apenas informação, a resposta irá diretamente para o endereço eletrô-nico do solicitado. Isso torna a cada dia menos importante tanto o uso de papel, como asligações por telefone. Em outras palavras, a maior parte das atividades atualmente estãosaindo do lugar físico tradicional de trabalho, para um outro tipo de espaço que é virtual25 eestá exigindo mudanças na forma de organização dos trabalhadores.

Por outro lado, a comunicação via correio eletrônico possui como problema a segu-rança da informação transportada pela rede. Não é difícil que uma mensagem possa serinterceptada e lida enquanto trafega pela rede. Para esse problema os especialistas eminformática tem como solução a encriptação das mensagens. O GnuPG26 é um softwarelivre, disponível na maioria das distribuições do Linux, que faz encriptação e decriptaçãodas mensagens, garantindo que elas só poderão ser lidas pelo seu verdadeiro destinatário.

Entretanto, o GnuPG não realiza o envio e recebimento de mensagens, uma vez que,ele não é um leitor de e-mail. Alguns leitores são capazes de chamar diretamente o GnuPG,ou seu equivalente proprietário, o PGP, quando necessário; outros necessitam de plug-insexternos, como o Enigmail27 para o Thunderbird e Mozilla, que façam esta integração.Na ausência de um leitor de e-mail com a capacidade de integrar-se a um programa decriptografia, será necessário salvar as mensagens em arquivos em disco para que possamser descriptadas e lidas.

Outra questão problemática com o uso do e-mails, diz respeito à dificuldade de enten-dimento das mensagens, por carecer de informações transmitidas pela linguagem corporal,como: tom de voz, pausa, hesitações da voz, suspiros, desânimo, alegria, gestos, etc. Nocorreio eletrônico essas informações perdem-se, de maneira que as tentativas de mostrar-se irônico ou engraçado, por exemplo, podem ser mal interpretadas. Deve-se a esse fato,que a comunicação no ciberespaço requer o uso de “regras de etiqueta” diferenciadas, con-

25Esse espaço virtual também denominado ciberespaço será abordado com detalhes no Capítulo 3 destaapostila.

26http://www.gnupg.org/.27http://enigmail.mozdev.org/.

36 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

vencionando, por exemplo, que quando escreve com letras maiúsculas está GRITANDO!Porém essa etiqueta não é aceita por todos no universo da rede de Internet.

Contudo, o problema que mais tem atormentado durante a comunicação via e-mail re-fere ao excesso de SPAM, mensagens não-solicitadas, similares à panfletos de promoçõesdo comércio ou de candidatos a cargos políticos colocados regularmente nas caixas de cor-reio residenciais. O envio de e-mail tem custo quase zero, ao contrário do correio terrestreem papel, e pode ser enviado com facilidade para milhares de destinatários, em poucosminutos. Estima-se que 40% da capacidade de largura de banda e de disco da maioria dosprovedores Internet seja consumida pelo SPAM, que acaba prejudicando a capacidade daspessoas de receberem e usarem as mensagens que lhes são verdadeiramente úteis.

O SPAM também acaba sendo usado para propagar vírus, fraudes virtuais, ou em sim-ples “pegadinhas”, os chamados hoaxes28. Um hoax é uma mensagem que aparenta serum alerta bem-intencionado ou um pedido de ajuda desesperado, que alguém recebe inici-almente como SPAM e acredita ser verdadeiro, depois repassa para todos os seus conhe-cidos, multiplicando o efeito do SPAM original. Curiosamente, ainda hoje existem hoaxescirculando na Internet que foram originados nos dias da ARPANET. Um exemplo é o “GoodTimes”29 que alerta sobre uma perigosa mensagem, que se aberta, apagaria todo o discorígido de quem a receber. Entretanto, é importante mencionar que usuários de aplicativosleitores de e-mail software livre, como os recomendados neste textos, estão imunes aosvírus de e-mail.

2.3.3 Fóruns e Listas de Discussão

Uma lista de discussão é um endereço eletrônico utilizado para enviar mensagens si-multaneamente para um grupo de pessoas, permitindo estabelecer comunicação assín-crona entre pessoas conectadas via Internet. Em geral, estas mensagens servem paraanunciar acontecimentos de interesse geral para todos os membros que a ela integram-se.Geralmente, uma lista é gerenciada por um ou vários coordenadores, denominados mode-radores, cuja missão principal é fazer com que se respeitem as normas de utilização desseserviço.

Na realidade, uma lista de discussão é um grupo de pessoas que intercambiam men-sagens sobre uma temática particular, compartilhando seus conhecimentos e debatendosobre temas de interesse comum. Esse é um serviço cada vez mais demandado pelo usuá-rio da Internet, pois permite criar grupos homogêneos agrupados por temas de interessescomuns. Esses grupos de interesses comuns na atualidade são as “tribos” que habitam

28http://hoaxbusters.ciac.org/HBHoaxIndex.html.29http://hoaxbusters.ciac.org/HBMalCode.shtml.goodtimes.

Aspectos Técnicos e Sociais da Internet 37

no ciberespaço. Nesse caso, se o usuário é um hacker há uma lista especial para ele, segosta de poesia, encontrará uma lista adequada. Em cada lista encontrará pessoas quefalam sobre os assuntos e com a “língua” da tribo. A quantidade de grupos é tão grandequanto a variação de interesses.

Uma lista de discussão pode ser criada de duas formas. Uma envolve o uso de umservidor e de um cliente especializado, inclusive foi esta forma que criou o NetNews30, naantiga USENET, atualmente extinta. Entretanto, o seu software (servidor e leitor de notícias)e seu protocolo (NNTP) estão presentes na Internet atual. É possível participar dos mesmosgrupos e seguir o histórico de discussões que se iniciaram há mais de 20 anos, além degrupos novos que surgem a cada dia. Existem vários programas gráficos e textuais para oacesso aos NetNews, mas a maioria dos leitores de e-mail também são capazes de ler eenviar mensagens via NNTP, eliminando a necessidade desse cliente específico.

Uma outra forma relativamente popular para criar lista de discussão consiste no uso deum programa que recebe e envia e-mail como se fosse um usuário humano. Este programa,originado na BITNET, era chamado LISTSERV, e replicava todas as mensagens enviadaspara um endereço específico, para todos os assinantes da lista representada por este en-dereço. Melhor ainda, era possível enviar mensagens para entrar e sair da lista, assinar oudeixar de ser assinante. Hoje há uma grande quantidade de softwares capazes de forneceresta funcionalidade, enquanto os usuários da Internet interagem rotineiramente com estaslistas de e-mail.

Com a popularização da Web foi fomentada outra forma de criar um fórum de discus-sões, que mistura características das duas maneiras originais. É a criação de uma páginadinâmica ou aplicação Web, que permite a leitura de mensagens armazenadas em umbanco de dados. Além disso, pode-se fazer a inclusão de novas mensagens neste mesmobanco, bastando que a pessoa receba um nome de usuário e senha no site que hospedao fórum. Uma última forma de “fórum” que está ganhando popularidade na Internet é oRSS (Really Simple Syndication)31. RSS é um tipo de “NetNews degenerado”, em que épossível apenas receber mensagens de um canal. Somente o administrador do canal podeenviar mensagens para os demais assinantes.

O RSS utiliza um formato XML que permite o envio de gráficos e outras informações, aocontrário do NetNews que é puramente textual. O uso típico do RSS consiste na divulgaçãode notícias sobre novas versões de um programa, novos artigos em um site de notícias ounovas promoções em uma loja virtual. Pode-se considerar o RSS como similar ao rádioe TV convencionais, nele o usuário atua apenas como receptor de informações, mas eletem liberdade de optar pelas fontes de informação (canais) que se interessa. Em geral, o

30http://www.faqs.org/faqs/usenet/software/part1/.31http://www.w3.org/RDF/.

38 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

RSS é usado internamente por um site web, para capturar informações vindas de outrasfontes. Mas, alguns leitores de e-mail são capazes de conectar a servidores RSS, comopor exemplo: o Thunderbird. Existem ainda leitores (chamados de “agregadores”) RSSindependentes, como o RSSOwl32.

2.3.4 Comunicação Instantânea e Bate-Papo

As formas de comunicação síncronas, representadas antes da Internet pelo telefone,são muito atraentes e estimulativas, conforme pode ser confirmado pela popularidade das“salas de bate-papo”, principalmente entre o público adolescente.

A comunicação síncrona mais popular na Internet voltada para grupo é o IRC (InternetRelay Chat). O IRC permite a comunicação em tempo real, identificando os participantespor meio do uso de nicknames (apelidos). A “conversa” no IRC está organizada por canaisde conversações, cada canal (ou sala) trata sobre um tema ou debate em específico. Paraparticipar em comunicação via IRC, primeiramente é preciso escolher o canal que pretendeacessar ou criar um novo canal com a temática que lhe interessa. Para estarem juntos emuma mesma sala, duas ou mais pessoas precisam conectarem-se a um mesmo servidorIRC. É possível “entrar” e “sair” de uma sala a qualquer momento, e em geral os servidoresIRC não são configurados para exigir login e senha para acesso. Também é possível esta-belecer uma conversa privada via IRC, depois de “encontrar” alguém em uma sala pública.

O cliente IRC mais conhecido no Linux é o X-Chat33 que pode ser visualizado na Fi-gura 2.4. O X-Chat é um cliente IRC gráfico, possuindo versões para diversos sistemasoperacionais como: FreeBSD, Solaris, AIX, MacOS X, Windows 9x/NT.

Outro serviço voltado para comunicação síncrona entre duas pessoas é o ICQ34 umsoftware israelense de extremo sucesso que foi posteriormente comprado pela AmericaOnline. Este tipo de serviço também é conhecido como “mensagens instantâneas” (InstanteMessaging IM). Além do ICQ que presta este serviço tem também os programas, como:AIM e MSN. Eles são mantenedores de “lista de contatos” que informam sobre conhecidosque estejam conectados, em tempo-real. É através desta funcionalidade que é possívelsaber quem está disponível para uma conversa instantânea.

O Jabber35 é um protocolo aberto e seguro de Instante Mensagen. É possível rodarseu servidor Jabber para uso apenas interno, ou tornar o seu servidor Jabber “federado”com outros servidores Jabber, de modo que seja possível estabelecer conversações entre

32http://www.rssowl.org/.33X-Chat http://www.xchat.org/.34ICQ pronuncia-se como I seek you - “eu procuro você”.35http://www.jaber.org.

Aspectos Técnicos e Sociais da Internet 39

Figura 2.4: X-Chat, cliente IRC para Linux

pares de pessoas independente do servidor ao qual estejam conectadas. Pode-se dizerque o Jabber é uma alternativa livre dos problemas de segurança e privacidade, que semostraram evidentes em todas as opções proprietárias deste tipo de serviço. Entre as em-presas que utilizam-se do protocolo Jabber pode ser mencionado o Google, implementadono Google Talk36.

A maioria dos clientes de IM fornecido para Linux são capazes de conectarem-se atodos os serviços livres e proprietários disponíveis na Internet. Um dos mais populares é oGaim37, apresentado na Figura 2.5 e Pidgin38 ambos também tem versões para Windows.

2.3.5 Compartilhamento de Arquivos: FTP e P2P

Desde a ARPANET que os serviços de compartilhamento de arquivos estão disponí-veis na Internet, o protocolo mais utilizado para executar este serviço chama-se FTP (FileTransfer Protocol). Através do FTP é possível envio de arquivos de tamanho e tipo arbi-trário de um computador remoto para um computador local e vice-versa. Um servidor FTPpode ser configurado tanto para ser acessível via login e senha, como na modalidade de“FTP Anônimo”, ou seja, a partir de qualquer senha enviada o reconhecimento será pos-

36Google Talk - http://www.google.com/talk/.37http://gaim.sourceforge.net/.38Pidginhttp://www.pidgin.im/download/.

40 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Figura 2.5: Gaim conectado a um servidor Jabber

sível. Convencionalmente para acessar este serviço o usuário preenche o seu endereçode e-mail, a fim de que o administrador do repositório de arquivos reconheça quem estáutilizando seus serviços.

Dentre os clientes de FTP no Linux podem ser citados: o gFTP39, em modo gráfico, oNcFTP40, em modo texto. Além disso, a maioria dos navegadores de Internet, atua comocliente FTP. Inclusive, atualmente os clientes FTP estão migrando para Web, sendo possívelincluir em uma página HTML link para qualquer tipo de arquivo que esteja em um espaçodo FTP anônimo.

Ainda existem os Gerenciadores de Download que permitem ao usuário ter mais con-trole sobre o processo de baixar um arquivo, como interromper um download para continuarmais tarde, verificar porcentagem de arquivo que chegou na máquina local. Um gerenciadorde Download conhecido em Windows é o GetRight. No Linux existe outro o Wget que

39http://www.gftp.org/.40http://www.ncftp.com/.

Aspectos Técnicos e Sociais da Internet 41

funciona em linha de comando e não integrado ao navegador, como o Gwget41, que é inte-grado ao Firefox e Nautilus. Atualmente, os clientes BitTorrent estão sendo bastante usadospara esta tarefa de donwload e compartilhamento de arquivos entre as pessoas, além deservidor no sentido tradicional. Dentre o BitTorrent mais utilizado para Linux e Windowsdestaca o Azureus42. Mais detalhes sobre esta tecnologia ver na Seção 2.3.9.

A NFS (Network File System) do UNIX e o SMB (Server Message Block) da Microsoft,cuja versões mais recentes é chamado de CIFS (Common Internet File Sharing) são osserviços de compartilhamento de arquivo criados para redes locais que podem ser utiliza-dos via Internet. Esses serviços são mais transparentes que o FTP, por encontrarem-seintegrados ao sistema operacional. Mas, as suas performances não fornecem recursos ne-cessários em um ambiente de rede de longa distância, como retomar uma transferênciainterrompida por problemas de conexão, sem exigir a transmissão de todo o arquivo.

Para administrar sites web com a facilidade em fazer cópia de um servidor para outro,bem como manter as cópias atualizadas, no Linux destaca-se o serviço rsync43. O serviçorsync é ideal para a criação de espelhos, em que um site web (ou repositório de arquivos)mantém uma cópia de outro site, dividindo o volume de usuários e permitindo que o con-teúdo permaneça acessível em caso de problemas técnicos em um dos sites. Mas, comoo usuário final acessa o site ou repositório de arquivos com clientes normais ao propósito,ele dificilmente toma contato com o rsync.

O conceito de aplicações peer-to-peer, ou P2P revolucionou a forma de compartilha-mento de arquivos via Internet nos anos recentes. A tradução “ponto-a-ponto”, para P2P,não transmite o significado do conceito como adotado pelo compartilhamento de arquivosna Internet. Na Internet realizar uma conexão P2P significa que não há necessidade deservidores especializados, o que quer dizer que qualquer usuário poderia atuar como ser-vidor, para compartilhar seus arquivos diretamente, sem antes precisar copiá-los para umservidor Web ou FTP em um provedor.

Como as aplicações P2P foram utilizadas para fazer cópias ilegais de músicas, vídeose programas criou-se uma fama negativa em torno desse serviço, a ponto delas serem ba-nidas em muitas empresas. Os usuários domésticos, geralmente fazem uso das aplicaçõesP2P proprietárias, como: eMonkey e Kaaza. Com as aplicações P2P, além de permiti-rem o Download , a maioria delas tem serviço centralizado de registro de localização deusuários, o que permite ao criador do serviço cobrar o acesso ou utilizá-lo para a venda depropagandas.

41http://gwget.sourceforge.net/.42http://azureus.sourceforge.net/.43http://rsync.samba.org/.

42 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Atualmente existem aplicações livres (clientes e servidores) para Linux que implemen-tam o conceito P2P: o eMule44, por exemplo, é um software livre, que não depende de umserviço central proprietário de localização dos usuários, e mantém-se livre de spywares45.

2.3.6 Mecanismos de Busca

Dentre os sites de busca mais utilizados compete mencionar o Google e o Yahoo quesão os mais populares. O princípio de utilização desses mecanismos de busca é relativa-mente simples, o usuário digita uma palavra ou frase que deseja pesquisar e o site retornauma página com links para todas as outras páginas da Internet que contém aquele assuntomencionado para pesquisa. O programa spider cria e atualiza constantemente o banco dedados. O spider funciona como uma “aranha” que anda pela “teia”, em busca de todas aspáginas da Internet, separa as páginas encontradas e salva este conteúdo no banco dedados. Esses serviços de busca são oferecidos gratuitamente na Internet, sendo sua estra-tégia de negócio voltada para a venda de propaganda localizada nos espaços das páginasde busca ou páginas de resultados de busca.

As empresas que anunciam seus produtos ou seja utilizam-se deste tipo de marketing,os fazem na esperança de que a propaganda atinja o seu público-alvo. Isto é mais díficil namídia tracional como TV e jornais, cuja comunicação de massa não permite a personaliza-ção e especificidades. Por sua vez, como nos sites de busca, o público alvo desejado podeser atingido, uma vez que quem faz a busca declara interesses específicos e, com isto, oanunciante paga apenas de acordo com a quantidade do público.

Do lado desses serviços de busca a relação também é vantajosa, uma vez que cadapágina gerada, para cada usuário que acessa seus mecanismos, consiste um espaço po-tencial para a venda de propaganda. Vários espaços podem ser vendidos ao mesmo tempo,já que eles são vistos por usuários diferentes, enquanto que na mídia convencional existeum único local disponível para negociação de propaganda.

2.3.7 Comércio Online

Essa forma de aplicação diferenciada da Web é uma prática que faz parte desde seusprimórdios, a cada dia ela está expandindo-se e diversificando os seus formatos. As lo-jas virtuais como Amazon Books46 são consideradas como um exemplo de como ganhar

44http://www.emule-project.net.45Um programa Spyware monitora as atividades do usuário de um computador (sites que ele navega, as

aplicações que utiliza, as senhas de acesso aos serviços) de forma que oculta, muitas aplicações P2P, princi-palmente proprietárias que permitem diversos tipos de spywares.

46http://amazon.com/.

Aspectos Técnicos e Sociais da Internet 43

dinheiro na Internet. Essa “empresa virtual” negocia produtos como: livros, CDs, DvDs,utencílios domésticos, móveis e outros que possam ser comprados e recebidos em casa.

Além disso, esses serviços também afetaram áreas como as dos setores financeiros,como: os “Internet Banking”. Nos dias atuais, em nosso país é possível fazer qualquermovimentação bancária (exceto saques e depósitos em dinheiro e cheque), pelo site dopróprio banco. Em vários contextos e situações é menos complicado realizar operaçõescomo: emitir extratos e pagar contas pelos meios tradicionais, do que através da formavirtual.

Por sua vez, juntamente com essas possibilidades de “transações financeiras virtuais”,emergem no ciberespaço os crimes digitais, as possibilidades de fraudes e roubos como osSPAMs já mencionados, e outras formas que serão vistas no Capítulo 4.

2.3.8 Provedores Gratuitos

É interessante mencionar que alguns dos seviços da Internet são normalmente ofere-cidos gratuitamente. Inclusive, dentre os serviços oferecidos de forma gratuita constam:os espaços para colocar págicas na Web, para abrir contas de e-mails, além de algunsprovedores de acesso que não cobram taxa por esse serviço.

Como é sabido são empresas privadas que geralmente oferecem estes serviços deforma gratuita, o que induz a indagação sobre como conseguem se manter financeiramente.A estratégia de negócio dessas empresas é a venda de propaganda em página web ou emmensagens eletrônicas. Isto significa que quanto mais usuários estiverem usando seus ser-viços, mais essas empresas tem possibilidades para negociarem espaço de propaganda.

Muitas empresas, como a Microsoft investem na oferta de serviços gratuito, como osoferecidos pelos sites MSN visando manter sua marca no mercado, ou mesmo preservarsua imagem de empresa líder em tecnologia. Logicamente, cada novo usuário de serviçosconcorrentes é um potencial usuário de programas concorrentes, e no final das contas umpotencial usuário disposto a abandonar completamente todos os programas da Microsoftem favor de alternativas.

Como no mercado atual existem várias alternativas de programas, para que as empre-sas sobrevivam nesse mundo competitivo de software, elas precisam manter um grandepercentual de internautas utilizando seus serviços gratuitos, o que é o caso do MSN, Gmail,Google, entre outros. Existem estas formas de estender o monopólio que uma empresadetém sobre aplicativos e sistemas operacionais para o usuário final, através da Internet.Pode ter uma ponta de verdade quanto a afirmativa que empresa como a Google dão grande

44 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

apoio aos projetos de software livre visando evitar que os usuários escolham comprar pro-dutos dessas empresas que estão com monopólio.

2.3.9 Web 2.0

Atualmente estamos presenciando acentuado aumento da prática coletiva na rede, aqual tem sido incentivada pelo surgimento das ferramentas que possibilitam ao usuário ela-borar e controlar o conteúdo na Web, de uma forma interativa e colaborativa. Obviamente,essa prática, denominada Web 2.0, não se aplica a todo o ciberespaço, mas é cada vezmais presente. Entre os exemplos que caraterizam essa prática, destacam-se as enciclo-pédias colaborativas, os sites de notícias, controladas pelos usuários, as aplicações desktopvia Web, o compartilhamento de informação, e por fim a blogosfera.

De acordo com Tim O’Reilly (O’REILLY, 2005), o conceito de Web 2.0 começou em umaseção de “brainstorming” em uma conferência. Nesta conferência Dale Dougherty pioneiroda Web “notou que longe de ter quebrado, a Web estava mais importante do que antes,com novas aplicações e sites excitantes” surgindo com grande freqüência. Os participan-tes desta conferência perceberam que entre o responsável por uma virada na Web ser ocolapso do pontocom ou a existência de uma chamada Web 2.0, escolheram a segundaopção. A partir deste momento teria nascido a “Web 2.0 conference” (O’REILLY, 2005).

Na seção de “brainstorming”, os participantes buscaram formular um significado paraWeb 2.0 delineando alguns aplicativos e serviços da Internet que pudessem diferenciá-loda Web 1.0. Em (O’REILLY, 2005) é apresentado um mapa, conforme mostra a Figura 2.6,que caracteriza a Web 2.0 como uma plataforma. Para O’Reilly, a plataforma Web 2.0não tem limites rígidos, mas sim um núcleo gravitacional, em que os próprios usuárioscontrolam as informações. Na realidade, não são os pacotes fechados de programas quecaracterizam a Web 2.0, mas sim a existência de novos serviços e aplicativos na Internet,cuja sua arquitetura permite a construção colaborativa da informação, a alteração de dadospelos usuários. Nesta seção do módulo, o que mais importa é mostrar as características eaplicações dessa Web 2.0, os quais tem como princípio a cooperação.

Observando a Figura 2.6, destacam-se três regiões onde o centro não apresenta umnúcleo gravitacional, mas identifica a Web 2.0 como plataforma que objetiva dar mais liber-dade ao usuário para controlar seus próprios dados e permitir a participação dos demaisusuários. Nos balões localizados acima estão destacadas as principais aplicações e nosdemais balões contém as características que marcam essa Web 2.0.

Dentre as características da Web 2.0 pode ser mencionada a importância dada à par-ticipação dos usuários da Web para seu desenvolvimento, o que está de acordo com aformação da inteligência coletiva, conforme (LÉVY, 1995). Ao mesmo tempo, essa forma

Aspectos Técnicos e Sociais da Internet 45

Figura 2.6: Web 2.0 Meme Map – Fonte: (O’REILLY, 2005)

de participação lembra o início da Internet, em cuja base de formação esteve o trabalhocooperativo de hackers habilidosos. É interessante observar que os principais aplicativosque fazem parte da Web 2.0 são evoluídos a partir da fonte de experiência advinda de seususuários. Seguindo o princípio de que quanto mais os indivíduos usam um software, maiseste evolui e mais percebe-se as necessidades de adaptações.

Nesse contexto, o caráter de uso dos aplicativos e serviços da Web tem por base aexperimentação, o usuário tem a liberdade para utilizá-los da forma que desejar, inclusivepodendo fazer alterações e adaptações necessárias às suas preferências. Essa possibili-dade de adaptações propiciam comportamentos não previstos quando da elaboração dosaplicativos ou ferramentas. Tais imprevistos dão origem a evolução constante no desenvol-vimento de funcionalidades de seus aplicativos.

A liberdade instituída para modificar e adaptar os sistemas e aplicativos conforme suaspreferências acaba com a prática de “alguns direitos reservados”, para algo mais livre como“direito para remixar”, o qual permite mais autonomia ao usuário. Na prática a preservação

46 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

é instituída ao autor do aplicativo, porém o usuário na maioria das vezes pode personalizá-loconforme seu perfil. Esse princípio que privilegia a liberdade está de acordo com o espí-rito hacker, ou comportamento “hackability”, o qual reflete a incessante luta pelo acessoaos computadores e ao livre acesso às informações. Pode-se dizer que o comportamento“hackability” funciona como pano de fundo da Web 2.0, o que resulta nas constantes atua-lizações dos programas tornando-os apresentados diariamente como versão beta.

Tendo como contexto as características supra mencionadas, a Web 2.0 como plataformanão constitui um pacote de software, mas alguns aplicativos e serviços destacam-se porsuas funcionalidades, conforme são apresentados a seguir:

Flickr, Del.icio.us - etiquetação, em contraposição à taxonomia: O flickr47 é um fotolog,cujas fotos publicadas permitem a formação de relações sociais entre seus integran-tes. O Del.icio.us48 é um site que permite armazenar, publicar e compartilhar book-mars com um indivíduo que pode acessá-lo. A idéia de etiquetação ou “tagging” e nãode taxonomia, refere-se ao fato de que ao invés de indexar as informações através deum vocabulário controlado, o indivíduo pode armazená-las utilizando tags que seriamas palavras que ele mesmo escolhe para relacionar ao assunto do documento queestá armazenado.

Gmail, Google, Maps e AJAX - usuário rico em experiências: O Google é uma aplica-ção Web que oferece vários serviços, bem como é aperfeiçoado em função do usode seus usuários. O serviço de e-mail Gmail, por exemplo é beta desde sua origemaos dias atuais, com atualizações constantes de serviços. Atualmente, por exemplo épossível utilizar o Google Talk49 na página inicial do Gmail, através do uso de AJAX.AJAX50, por sua vez, é uma tecnologia que permite atualizar uma página sem pre-cisar atualizar um site inteiro. Em síntese, a importância maior do Google está emreconhecer constantemente as necessidades de seus usuários. Ao disponibilizar no-vos serviços e ferramentas, o Google analisa a receptividade dos usuários, a fim deimplementar ou não o mecanismo, o que permite ao usuário direcionar o rumo dasinovações desse sistema.

PageRank, reputação no eBank, revisão na Amazon – o usuário como colaborador:O sistema PageRank é um motor de busca do Google que determina a importância deuma página em função da quantidade de links que a página recebe, ou seja, quantomais os internautas forem linkando as páginas, mais no topo da busca aparecerá osite. O eBay51 funciona através da atividade de seus usuários que compram e vendem

47http://www.flickr.com.48http://del.icio.us/.49Sistema de conversação em tempo real.50Acrônimo em língua inglesa de Asynchronous Javascript and XML.51http://www.ebay.com/.

Aspectos Técnicos e Sociais da Internet 47

dentro do site. A Amazon52 adapta-se ao perfil de compras do usuário, usando me-canismo que resgata as visitas anteriores de um cliente e na próxima visita apresentauma página inicial personalizada para esse usuário. Por fim, é importante destacarque a maioria dos serviços da Web 2.0 são aprimorados conforme as necessidades eexigências de seus usuários.

Blogs – participação, não publicação: O que caracteriza o blog como ferramenta da Web2.0, além da possibilidade de publicação aberta é o fato de conectar os blogueiros quelêem e interagem mutuamente com os blogs, através de ferramentas de comentários,bem como da rede de links entre os blogs. Uma das coisas que tem feito diferença éa tecnologia chamada RSS53, a qual trouxe avanço significante na arquitetura funda-mental da Web. O RSS produz o efeito das trackbacks, ou seja, possui recursos quepermitem receber aviso de outro blog, de forma que os posts que discutem os mes-mos assuntos ficam relacionados. Esse recurso, que permite ligar os posts entre si deum blog em outro, permite que a discussão prolongue-se sobre determinado assunto,fazendo com que os leitores de um blog possam ler o que foi publicado em outro blog.No contexto da Web 2.0, a importância dos blogs está associada ao feeds (RSS) queteve sua aplicação inicial dentro dessas páginas. O RSS permite não só que alguémlink uma página, mas que a pessoa também seja avisada de cada atualização queessa página sofra. Pode-se dizer que a Web torna-se dinâmica com os links e com oRSS que notifica os usuários das modificações hipertextuais que ocorrem nas páginase assim movimenta a navegação e conseqüentemente a rede hipertextual se altera àmedida em que as páginas são visitadas e alteradas.

Wikipedia: confiança radical: É uma enciclopédia livre, criada em 2001, cujo conteúdoqualquer um pode editar, acrescentando, apagando e corrigindo as informações. AWikipedia54 é constantemente abastecida por milhares de pessoas, com interessesdispares, o que resulta em informações atualizadas sobre diversas tribos culturais.

BitTorrent: descentralização radical: É o maior símbolo da terceira geração de sistemasde compartilhamento de arquivos online. Sua característica técnica é a de que osarquivos são fragmentados e guardados de modo descentralizado. Quem usa o pro-grama guarda pedaços do arquivo copiado em seu computador para oferecer aosoutros usuários. Então, ninguém copia um arquivo de um único ponto, mas recebetrechos de outros computadores da rede. Este artifício torna mais veloz o comparti-lhamento. Quanto mais gente se interessa por um arquivo, mais cópias de trechosdele haverá. O BitTorrent também destaca-se pelo forte exemplo de cooperação de

52http://www.amazon.com.53O RSS apesar de referir a uma única tecnologia do ponto de vista prático, possui vários significados

de acordo com a versão em uso: RSS versão 0.91, Rich Site Summary; RSS versão 0.9 e 1.0, RDF SiteSummary; RSS versão 2.0, Really Simple Syndication.

54www.wikipedia.org.

48 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

informação ao tornar obrigatório a disponibilização de arquivos pelo usuário, além deretirar arquivos é necessário que o usuário disponibilize-os aos demais que precisamtambém utilizá-los.

É importante observar que as mega corporações estão apossando-se da Web 2.0 dasformas mais variadas possíveis, vestindo-se de novas roupagens, a fim de produzir marke-ting utilizando os serviços trazidos pela visão crítica de seus usuários participantes ativos.As evoluções propiciadas pela Web 2.0 estão cada vez mais agregando formas eficientespara as mega corporações venderem seus produtos e segurarem seus clientes para a ob-tenção de lucro, silenciosamente. Em síntese, essas evoluções da Internet estão cada diamais a serviço do capitalismo, com isto os consumidores precisam estar mais preparadose atentos ao integrarem-se neste contexto.

Outro ponto a ser observado é que apesar da Web 2.0 estar relacionada com a demo-cratização da produção e disseminação do conhecimento, alguns cuidados precisam sertomados. O primeiro problema e tema da próxima seção, diz respeito à questão da ex-clusão digital, o qual está relacionado não somente ao acesso a estas tecnologias, masprincipalmente as condições intelectuais de participação de uma inteligência coletiva, nacompreensão de Pierre Levy (LÉVY, 2001). Propor uma produção e disponibilização deconhecimento na Web é atentar-se para os beneficiários direto e indiretos da mesma. Poroutro lado, como vem sendo comentado, apesar da maioria das ferramentas da Web 2.0estarem disponibilizadas ao público em geral, essas ferramentas muitas vezes pertencemà mega corporações que podem tornar detentoras e veiculadoras desses conhecimentos eseus derivados. Não é incomum encontrar na Web, por exemplo, discussões sobre o poderda Google, uma vez que muitas dessas ferramentas e serviços pertencem a essa empresa.Nesse sentido, torna-se necessário ter visão critica em perceber que a grande parte dosserviços e recursos disponíveis, à mega empresa está de posse da mesma utilizando paramanter-se no mercado competidor que habita no ciberespaço e no mundo globalizado. Agratuidade normalmente cultivada pelas empresas principais da Web 2.0 consiste em dis-ponibilizar ao usuário final, uma vez que são esses usuários que manterão os conteúdosdos blogs, Wikipédia. Em outra parte, essas empresas aproveitam para expandir a possibi-lidade de gerar lucro, através de anúncios patrocinados, disponibilização de recursos extrase outras vantagens de comercialização. É possível observar que manter profícua uma idéiana Web, como a do YouTube, Wikipédia e outras, significa obter apoio de grandes inves-tidores. Um exemplo negativo pode ser citado o Flogbrasil55 que surgiu como alternativabrasileira ao Fotolog.net, antes de ser comprada pelo Terra, ganhou grande notoriedadepela quantidade de adesões diárias e pela qualidade do serviço prestado. À medida quenão recebeu investimentos suficientes em sua infra-estrutura começou apresentar proble-

55Flogbrasil: www.flogbrasil.terra.com.br.

Aspectos Técnicos e Sociais da Internet 49

mas, como serviços lentos, fora do ar, etc. Devido à demora na resolução dos problemas, osusuários logicamente mudaram para outras empresas que prestam o mesmo serviço. Apóssua perda de credibilidade pelos usuários, nem a compra da mesma pelo Terra trouxe-os devolta. Nesse sentido, os consumidores que transitam no ciberespaço estão muito exigentes,uma vez que conseguem obter informações positivas ou negativas sobre seus produtos eserviços, mediante comentários de pessoas que as conheceram ou experienciaram.

Conforme mencionado, este módulo tem por objetivo abordar a Internet como meio decomunicação, a qual é responsável por alavancar mudanças estruturais em vários setoresda sociedade. Ao mesmo tempo que é necessário compreender este cenário de evoluçãodas novas tecnologias, também cabe refletir sobre os problemas subjacentes à presençadesses novos artefatos digitais na sociedade. Por isto, a próxima seção aborda o tema daexclusão digital, uma vez que este tem sido um problema que permeia toda a sociedade eque de certa forma contraria o otimismo em relaçao à riqueza advinda da era da informação.

2.4 INTERNET E INCLUSÃO SOCIAL / DIGITAL

O termo exclusão refere-se à privação de alguma coisa, o que em contextos sociaisinduz a pensar em um grupo, sem acesso a algum bem produzido socialmente, ou impossi-bilitado de desfrutar seus direitos básicos. A condição de exclusão social está relacionadaà existência de desigualdades em relação aos vários aspectos da sociedade: econômico,saúde, educação, habitacional, entre outros. O aumento da desigualdade social nos paísesdo terceiro mundo é parte das preocupações de vários segmentos da sociedade, inclusive,as desigualdades de oportunidade de acesso ao ambiente digital, por exemplo, devem-seprincipalmente às desigualdades sociais.

Atualmente, assiste-se a uma série de mudanças que a tecnologia e, principalmente,os recursos telemáticos proporcionam nas relações sociais, nas organizações e formas detrabalho, nas transações monetárias, na codificação de distintas manifestações culturais,na configuração urbanística das cidades, etc. Em todos esses fenômenos, a “mediação”tecnológica cumpre um protagonismo difícil de ser imaginado antes de sua criação. Cabemencionar que essa importância tecnológica do mundo atual está aguçando, cada vez mais,as desigualdades sociais e a concentração de riqueza. Além disso, ela torna-se desigualo acesso ao desenvolvimento tecnológico, o que pode ser verificado na comparação doacesso à tecnologia no primeiro e no terceiro mundo.

Uma definição mínima da terminologia exclusão digital passa pelo acesso a computa-dor conectado à rede mundial e aos conhecimentos básicos para utilizá-lo. Cabe destacarque vários grupos já estão apropriando-se do termo exclusão digital, a fim de adequá-lo

50 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

melhor a seus interesses próprios, não sendo difícil que as empresas que concorrem den-tro do ramo da tecnologia da informação buscam obter vantagens na negociação de seusprodutos. Dessa forma, o contexto em que o termo exclusão social e digital estão sendo vei-culados nos holofotes dos meios de comunicação carecem ser analisados criticamente. Emseu sentido mais genérico essa definição é fundamental e faz imprescindíveis uma ligeiraanálise sobre os dados do censo da Pesquisa Nacional por Amostra de Domicílios (PNADPesquisa Nacional por Amostra de Domicílio, 2005), já que parece ser uma estratégia paraconhecer melhor esse fenômeno em contexto brasileiro.

O item “microcomputador”, somente figurou na pesquisa do PNAD, como bem de con-sumo permanente nas residências, no ano de 2001. Nesse ano foi constatado que 12,6%dos domicílios tinham estes equipamentos, mas apenas 8,6% dos domicílios tinham acessoà internet, ou seja, apenas 68% dos domicílios com computadores estavam conectados àgrande rede de computadores. Do ano 2001 a 2004, a taxa de crescimento no númerode moradias com microcomputador foi de 29,68%; enquanto que a taxa de crescimento denúmero de domicílio com computador ligado à internet foi de 44,19%. No PNAD constaque em 2004 a porcentagem de domicílio com o equipamento alcançou 16,34%, em umcontexto em que 12,4% possuem acesso à internet. Isto mostra uma forte conexão entrecrescimento do acesso à Internet atrelado à aquisição do equipamento computador.

De acordo com o relatório da ONU de 2007, o Brasil tem a décima maior população deinternautas do mundo, com 22 milhões de pessoas acessando à rede, enquanto o planetaconta com 875,6 milhões de internautas. As estatísticas mostram entretanto que o paísprecisa batalhar muito para alcançar melhor posição na sociedade da informação, uma vezque constitui apenas 2,5% dos internautas do mundo. Os Estados Unidos alcançam o pri-meiro lugar no ranking de país com maior população conectada com 185 milhões (21,12%),enquanto a China vem em segundo lugar com 95 milhões (10,85%). A Europa é o terceirocontinente em grau de inclusão, com 33,2%, já a América Latina aparece em quarto lugar,com 11,4% da população conectada.

Esses dados demostram que a sociedade rica usa com intensidade as redes informa-cionais para comunicar-se, enquanto os países menos abastados economicamente e emdesenvolvimento, como o Brasil, tem muito mais da metade da população distantes dosbenefícios das redes informacionais. Esse inevitável crescimento desigual de acesso aoscomputadores e à Internet está acentuando as desigualdades na distribuição de renda. Naopinião de (CASTELLS, 2001) ser excluído da rede, é sofrer uma das formas mais danosasde exclusão em nossa economia e em nossa cultura.

Entretanto, paralelo as discussões sobre o problema de exclusão digital, merece desta-car que o Brasil é um país com sérios problemas de desigualdade social. Conforme dadosda Pesquisa Nacional de Amostragem de Domicílio de 2004, 7,35% dos brasileiros são

Aspectos Técnicos e Sociais da Internet 51

analfabetos e 49,52% da população recebe até dois salários mínimos. Ao analisar essasporcentagens pode-se facilmente cogitar que a exclusão digital é um problema menor. En-tretanto, ao mesmo tempo a exclusão digital consolida e eleva ainda mais as desigualdadessociais, como apontado em (SILVEIRA; CASSINO, 2003):

Uma das questões derradeiras que se apresentam atualmente consiste em res-ponder se em um contexto de globalização, de hegemonia neoliberal e de pensa-mento único seria possível combater a pobreza sem a utilização das tecnologiasda informação.

No contexto da sociedade globalizada o domínio das tecnologias por seus cidadãos écrucial para o desenvolvimento das nações, não sendo possível em tempos atuais eliminarde forma eficiente a exclusão social, sem uma inclusão digital significativa de sua popula-ção. Na verdade, a relação de exclusão social e digital constitui-se em um círculo vicioso,em que uma é causa e conseqüência da outra. De forma que, sem acesso aos recursoseconômicos e educacionais para utilizar-se dos benefícios do mundo digital, o indivíduo en-frenta dificuldades para inserir-se socialmente, e sem a inserção social ele encontra-se àmargem da sociedade digital. Neste sentido, as propostas e ações de políticas públicas emdefesa da inclusão digital, conforme (EISENBERG; CEPIK, 2002) precisam:

levar em conta não apenas a preocupação de que todos tenham acesso às infor-mações essenciais e às ferramentas de comunicação, mas também que possamusá-las a fim de obter uma maior participação na sociedade.

Como é de conhecimento as tecnologias informáticas possuem linguagens e códigosde acessos próprios, os quais devem ser conhecidos e dominados para seu uso adequadoe eficiente. Porém, o domínio desses aparatos digitais não estão disponíveis no mesmonível de acessibilidade. Desta forma, começa a seleção tecnológica dos indivíduos queconseguem dominar os chamados “passaportes” digitais de acesso ao ciberespaço, e porisso, têm todas as fontes de informações ao alcance, enquanto a maioria fica privada deinteragir com elas. (LÉVY, 1995) referencia o acesso ao código digital como:

não basta estar na frente de uma tela, munido de todas as interfaces amigáveisque se possa pensar, para superar uma situação de inferioridade. É preciso an-tes de mais nada estar em condições de participar ativamente dos processos deinteligência coletiva que representam o principal interesse do ciberespaço.

Ainda seguindo este raciocínio, Lévy ressalta que o problema do Brasil não é a falta decomputadores, mas o analfabetismo. Em outras palavras, o autor quer destacar que para os

52 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

indivíduos fazerem parte da inteligência coletiva que se forma no ciberespaço, o principalobstáculo é a ausência de recursos culturais e intelectuais. Obviamente, essa visão nãoé consensual, bem como não existe um consenso nos objetivos e focos de projetos deinclusão digital.

Dessa maneira, o trabalho com a inclusão digital pode ter como ponto de partida diversi-ficados tipos de objetivos e focos, os quais irão distinguir como ocorrem o acesso as novastecnologias. Em (SILVEIRA; CASSINO, 2003) é apontado três focos distintos nos discursose nas propostas de inclusão, os quais favorecem a ampliação dos debates sobre a questão.O primeiro foco trabalha a inclusão digital voltada à ampliação da cidadania, no sentido depossibilitar as pessoas o direito de interagir e comunicar, através dos serviços da Internet.O próximo foco de trabalho no combate a exclusão digital busca inserir as camadas menosprivilegiadas no mercado de trabalho na era da informação. No centro desse processo estáa preocupação em capacitar os cidadãos para manusear as ferramentas tecnológicas. Oterceiro foco é voltado a formação educacional geral no contexto das tecnologias digitais,no sentido de orientar jovens diante do dilúvio informacional da web, no fomento da inteli-gência coletiva, da inserção autônoma e produtiva dos jovens na sociedade da informação.Os autores continuam afirmando que os três focos não são conflitantes podendo inclusiveestar interligados.

Ainda, segundo (SILVEIRA; CASSINO, 2003), no início, os projetos de inclusão digitalestavam voltados para o foco da profissionalização, enquanto atualmente começam a sur-gir com mais força os discursos voltados ao fomento da inteligência coletiva. Entretanto,não é difícil encontrar programas de inclusão digital voltados apenas ao acesso de compu-tadores conectados à Internet, esquecendo-se que essa abordagem é inicial ao processode inclusão, uma vez que a premissa maior é o domínio da linguagem dessas tecnologias.Assim dependendo dos elementos e instrumentos da era da informação que são colocadosa disposição nos projetos de inclusão digital fica claro o que o executor desses projetoscompreendem por inclusão digital. Segundo (SILVEIRA; CASSINO, 2003), a inclusão digi-tal pode ser distinguida pelos vários tipos de acessos às NTICs, como: os que priorizamensinar os primeiros passos no uso da rede mundial de computadores; ou que incentivama navegação em (sites do governo, notícias, culturais, diversões, etc). Ainda têm projetosque possibilitam ao includente obter recursos como: caixa postal, espaço para comunica-ção e meios para armazenar informações; bem como ter condições para utilizar recursosque permitem a inserção em comunidades virtuais (chat, listas e fóruns de discussão, wikis,etc).

Entre os focos para inclusão consta também que o includente deva dominar as técnicasde produção de conteúdo a ser disponível na Web. A justificativa deste foco é que produ-zir material para Web estimula o desenvolvimento da criatividade, lapida o senso crítico e

Aspectos Técnicos e Sociais da Internet 53

principalmente ultrapassa os limites da passividade diante dos meios de comunicação. Emalcance satisfatório da inclusão, os jovens seriam estimulados à construção de ferramentase sistemas que possam estar servindo à comunidade. Porém, isto só será possível com en-sino/aprendizagem de uso de linguagem de programação, software para criação de design,editoração de músicas, etc.

Em contexto brasileiro, as estratégias e propostas de políticas públicas devem levar emconsideração o quadro da situação de exclusão social e as desigualdades no acesso àsnovas tecnologias. Sendo assim, torna-se necessário o desenvolvimento de ações públicasque possibilitem grande parte da população obter, além do acesso livre à informação, orien-tação educacional que forme proficiência tecnológica e habilidade em obter conhecimentoatravés deste meio. Levando em consideração esses objetivos para inclusão digital no Bra-sil, o seu foco de ação deve priorizar à ampliação da cidadania e à inserção da camadabaixa no mercado de trabalho, profissionalizando e capacitando os cidadãos.

É necessário então assegurar o acesso à informação às camadas socialmente excluí-das como estratégia fundamental de inclusão social e uma das formas de resgate destesexcluídos. Nesse contexto ressalta-se a possibilidade da utilização do software livre, quetem como uma de suas características interessantes para o trabalho com a inclusão digital,ser um ingrediente adequado a uma apropriação autônoma, colaborativa e democrática dosmeios digitais.

Em países do terceiro mundo, como por exemplo no Brasil, o software livre é uma impor-tante tecnologia, uma vez que possui potencial para diminuir a dependência tecnológica dopaís, principalmente porque as características desse produto auxiliam uma inclusão digital,que privilegia: a democratização e a liberdade de expressão. A importância do softwarelivre é facilmente compreendida num país em que a desigualdade de renda é muito grande.Conforme consta no (PNAD Pesquisa Nacional por Amostra de Domicílio, 2005), o Brasilapresenta o índice de GINI56 da distribuição de rendimento igual a 0,559.

Em linhas gerais, o software livre57 é um produto desenvolvido a partir de uma formadiferenciada de trabalho, em que os programadores estão agregados em comunidades vir-tuais. Essas comunidades tem como princípio básico o compartilhamento do conhecimentoe a solidariedade praticada pela inteligência coletiva que se forma no ciberespaço. A ado-ção do software livre pode contribuir para diminuir a “brecha digital” e também diminuir a

56O GINI expressa o grau de concentração do rendimento da população. O índice de GINI é expresso porum valor que varia de 0 (zero), situação de perfeita igualdade 1 (um), situação de desigualdade máxima. Emsituações concretas é muito difícil que o índice atinja estes valores extremos, sendo que 0,5 já é consideradoum valor representativo de fortes desigualdades.

57O leitor pode encontrar maior aprofundamento sobre as questões que envolvem o software livre nosCapítulos 5 a 7 desse Módulo.

54 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

dependência tecnológica entre países em desenvolvimentos e desenvolvidos. Este é o casodo Brasil, por exemplo que tem potencial para criar soluções de programas similares aosque são importados. É extremamente viável utilizar amplamente software livre, ainda maispodendo contar com a vantagem de não estar enviando royalties para o exterior. Alémdisso, a economia obtida pela diminuição de pagamentos de licenças e envio de royaltiespoderia ser canalizado para investimentos em outras áreas.

Apesar do software livre possuir características que despertam o interesse de váriasáreas do conhecimento, é importante citar que o mesmo enfrenta diversos desafios parasua adoção. Esses desafios estão ligados à queda de paradigmas, tais como a proprie-dade intelectual e o trabalho formalmente organizado, constituiem-se como uma inovaçãoradical para grande parte das organizações e dos indivíduos. É fundamental integrar a po-lítica de inclusão digital ao software livre, uma vez que apresenta-se como uma estratégiade viabilização e ampliação dessas políticas e projetos. Para aprofundar ainda mais estajustificativa de sucesso na estratégia de utilização de software livre nas políticas de inclusãodigital (SILVEIRA; CASSINO, 2003) cabe considerar os seguintes argumentos:

• Integração da política de inclusão digital, de informatização das escolas e as biblio-tecas públicas e a adoção de tecnologia da informação como instrumento didático-pedagógico à estratégia de desenvolvimento tecnológico nacional. A escola podeser uma via promissora de inclusão digital, e o ensino-aprendizagem ser enrique-cido com ferramentas tecnológicas, colaborando para uma pedagogia inovadora,essencial nos dias atuais. Ainda pode ser que a presença desta tecnologia naeducação esteja estimulando os alunos ao estudo a tornarem produtores de tecno-logias.

• Redução de custos para o estado – o uso de software livre proporciona uma eco-nomia, pelo fato de não ser necessário o pagamento de licenças de uso, podendoassim, aplicar os recursos economizados em outros projetos. Por exemplo, os re-cursos economizados poderiam ser disprendidos para treinamento e educação di-gital dos monitores e instrutores.

• Por último, compreende-se que o dinheiro público não deva ser utilizado para sus-tentar o monopólido privado transnacional – além de não ser coerente o Estadopagar para seus professores, monitores treinar os usuários para uma determinadaempresa. O autor defende a idéia de que o dinheiro público deva ser utilizado no in-centivo a proliferação de linguagens e programas essenciais de domínio público58.

58Infelizmente, o conceito de software livre e software de domínio público foram considerados erroneamentecomo equivalentes. No Capítulo 5 é detalhado a história e a filosofia do software livre caracterizando a suareal definição.

Aspectos Técnicos e Sociais da Internet 55

Em síntese, todos estes argumentos vêm ao encontro das necessidades de países emdesenvolvimento, que conhecem a urgência da inclusão do cidadão na revolução digital,mas não dispõem de recursos abundantes. Além disso, o software livre emerge comoalternativa aos produtos proprietários, o que evita a adesão compulsória deste último emprogramas de inclusão, ao mesmo tempo que a inclusão digital está relacionado a escolhase a participação democrática de seus cidadãos.

56 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

3CIBERESPAÇO E CIBERCULTURA

Conforme pode ser facilmente observado, pela leitura de jornais e outrasformas de mídia (escritas, faladas e visualizadas), a Internet proporcio-nou o surgimento de novos conceitos que se referem tanto ao aspectotécnico do uso do espaço virtual, como o significado em termos de or-ganização social criados por esse espaço. O aparecimento desses no-vas conceitos também caracterizam várias mudanças no tratamento dasinformações, na forma em que são construídas, manipuladas e distribuí-das, atingindo a sociedade de maneira inédita, resultando na extensãodas redes de comunicação pessoal com implicações em todas as rela-ções sociais, econômicas, educacionais e principalmente culturais. En-tender o contexto de nascimento destes novos conceitos, bem como, assuas implicações na sociedade pode ser o melhor caminho para inserçãocrítica de cidadão na sociedade da informação, bem como compreendermelhor a cibercultura subjacente a comunidade software livre.

3.1 ORIGEM E DEFINIÇÃO DO CIBERESPAÇO

Em “Neuromancer” (GIBSON, 1995), livro de ficção científica, escrito por William Gib-son foi cunhado o termo ciberespaço (cyberspace). A palavra ciberespaço descende decibernética, termo criado por Norbert Wiener para designar o novo campo de estudo que sepreocupa com os processos de comunicação e controle entre os seres vivos e as máqui-nas, além de abranger os aspectos sociais. O romance de Gibson reflete um futuro próximo,quando a maioria dos computadores do mundo estariam interligados formando uma gigan-tesca rede. Através dessa rede, os seres humanos conectam-se no ciberespaço, ou seja,num espaço virtual visual, em que ocorreria algo semelhante a uma alucinação coletiva.Nessa rede de computadores, o real não é mais um ponto de referência e o artificial nãoé limitado por nenhuma presença física. Nada, nem pessoas estão livres de mudançasnesse local, em que até o corpo torna-se opcional, pois algumas pessoas são mentes que

58 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

existem apenas no ciberespaço. Aliás, na idéia do ciberespaço, tudo é opcional: o corpo,as experiências, a cultura, a realidade, além disso tudo pode estar à venda.

Apesar das transformações que vêm ocorrendo no ciberespaço, desde a formulaçãode Gibson, a sua idéia é interessante porque referencia o ciber como aquilo que implicainteratividade e controle. Com os poderosos recursos que fazem parte do ciberespaço, aficção narrada em Neuromancer faz-se concreta, uma vez que o ciberespaço é o lugar ondea vida mediada pelo artificial é dominante e habilitada para interagir com a informação, eé tão poderosa que pode trazer imensas repercussões na atividade econômica, política,educacional e cultural da sociedade.

No presente texto, o termo ciberespaço é definido como o local virtual onde as pessoasatualmente vêm desempenhando suas atividades de comunicação e informação, onde osseres virtuais estabelecem suas “interações”, expõem e adquirem conhecimentos, habilida-des e informações adquiridas na vida cotidiana. Desta forma, quando usamos a Internetpara efetuar operações bancárias, reservas de hotéis, mandar mensagens via e-mail, esta-mos “viajando” no ciberespaço. Por consequinte, o que está relacionado ao “ciber” implicaem interatividade e controle, significando por outro lado que não engloba os meios de co-municação passivos, como o rádio, a TV e o cinema.

O ciberespaço referencia-se àquilo que está on-line, o que é possível graças aos recur-sos tecnológicos fruto das telemáticas. Quando fala-se em espaço, comunidade ou escolavirtuais, na realidade se fala de “escola”, “comunidade”, “espaço”, todos entre aspas, já quenão podem ser compreendidos em seus sentidos clássicos da palavra, mas num sentidoem que nos remete A simulações. Conforme (LÉVY, 2000):

ciberespaço (que também chamarei de “rede”) é o novo meio de comunicação quesurge da interconexão mundial dos computadores. O termo especifica não apenasa infra-estrutura material da comunicação digital, mas também o universo oceâ-nico de informações que ela obriga, assim como os seres humanos que navegame alimentam esse universo.

É importante destacar que a complexidade do funcionamento e dos acontecimentosque ocorrem no mundo virtual repercute em rápidas transformações produzidas em nossasociedade pela dinâmica do ciberespaço. Com o avanço da Internet torna-se mais signifi-cativa a visão de que a informática não se resume a computadores, mas produz impactosvisíveis nas vidas das pessoas. Inclusive, essas conseqüências provocadas pelo mundovirtual estão afetando tanto as pessoas que estão interconectadas pelos computadores,como aquelas que desconhecem-nas ou que consideram essas ferramentas como apenasauxiliares em suas atividades tradicionais.

Ciberespaço e Cibercultura 59

O ciberespaço torna disponível um dispositivo comunicacional original e diferenciado, noqual a comunicação pode ser estabelecida a nível de todos-para-todos. Isso significa quepresencia-se o surgimento de um estilo de vida digital e ou virtual completamente distintodo padrão propiciado pelos dispositivos comunicativos que privilegiam a comunicação um-para-um, ou um-para-todos, como: o telefone, correio, TV, entre outros.

Esse estilo de vida digital tem como marca diferenciadora a comunicação em modotextual de forma assíncrona, embora acenando em relação ao síncrono. As distâncias geo-gráficas são cada vez menos significativas, já que pode-se ter a “presença virtual” em temporeal. Com os avanços dos dispositivos tecnológicos subjacentes ao ciberespaço, é possívelperceber a enorme capacidade em termos de alcance e velocidade, os quais propiciam odesaparecimento das distâncias, a ponto de não ser significativa como referência.

A natureza infinita do ciberespaço, a velocidade, a interatividade, a comunicação emvias de mão-dupla, não significa por si só a edificação de algo melhor ou pior que o mundoreal. Caso o ciberespaço seja analisado criticamente, pode-se perceber que é habitado porpessoas que utilizam seus recursos de forma autoritária, conservadora e anti-democrática.Nem sempre os intelectuais que formam a massa crítica de uma sociedade são os quehabitam o mundo do ciberespaço e dominam seus dispositivos. Pode-se dizer que ele édemasiadamente entregue aos técnicos, aos informatas e aos engenheiros, profissionaisesses que geralmente advém de formação conservadora, autoritária ou mercantilista. Seum técnico de informática autoritário for idealizador de sistemas ou programas, a tendênciaé que estes construam um sistema anti-democrático, os quais podem limitar o imenso po-tencial do ciberespaço. Ou ainda, caso administrador de redes, que não possui formação evisão para compreender o amplo alcance da tecnologia e as implicações que essas propi-ciam nos vários aspectos da sociedade, poderá estar desempenhando inconscientementeuma função que exerce impactos negativos na vida das pessoas.

Esta análise está em consonância com a posição de Pierry Levy (LÉVY, 2000) quandoele afirma que a tecnologia não é determinante, mas sim condicionante da cultura e dasociedade. Em outras palavras, o ciberespaço não é bom, nem ruim, isto depende dos con-textos e das formas de seu uso. Ou seja, o ciberespaço é condicionado pelas concepçõessubjacentes de quem o utiliza, por isto não é um local neutro, uma vez que ele pode tantoabrir como fechar o espectro de possibilidades. Para esse autor, as estruturas comunicati-vas que adotam um padrão de rede demarcam mudanças inevitáveis, as quais oportunizama expressão da inteligência humana. O processo comunicativo interativo como é o ciberes-paço propicia a conexão das inteligências, concretizando a inteligência coletiva em que ospotenciais dos indivíduos são maximizados na execução de suas habilidades.

Esse autor destaca que essas características do mundo virtual são favoráveis para odesenvolvimento dos indivíduos, principalmente porque surge a possibilidade de trocas de

60 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

conhecimentos e a sua produção de forma coletiva, permitindo a formação de comunida-des baseadas na inteligência. Por exemplo, é possível no ciberespaço que os indivíduoscom distintos níveis intelectuais, sociais, políticos, econômicos e dispersões geográficascomuniquem e participem de comunidades que defendem interesses comuns.

Ainda para este autor, o ciberespaço deverá causar uma série de mudanças políticasdevido sua natureza e forma de funcionamento. O motivo principal é que a tecnologianão está curvada sob os domínios de um grupo hegemônico, transmitindo de um paramilhões. O ciberespaço permite inverter esse processo possibilitando uma comunicação detodos para todos e ampliando enormemente as possibilidades de produção e divulgaçãode conhecimento de cada indivíduo, mesmo os não conectados. Pode-se fazer um paralelocom essa idéia de democratização política com a atuação das comunidades envolvidascom o software livre. Isso é possível, uma vez que não se pode imaginar a evolução dosoftware livre ou sistema operacional Linux separados da própria evolução do ciberespaçoe do fortalecimento de comunidades virtuais que constroem e defende o software livre.

É importante relembrar que atualmente a Internet não está somente interligando univer-sidades e centros de pesquisas, mas as organizações privadas vem conectando-se cadadia mais no ciberespaço. Nesse sentido, é possível dizer que o ciberespaço tende a refletiro mundo real. As organizações mercantis privadas tem procurado descobrir e aperfeiçoarformas de expor seus produtos nesse novo canal. Devido ao fator de desterritoriedade,ampliam-se as possibilidades de concorrência, diminuindo a importância de localização etamanho da empresa para a venda de seus produtos. Um exemplo disso é o fortalecimentode várias empresas que operam unicamente no ciberespaço que trabalham com o mínimopossível de estoque e ocupam apenas escritório como espaço de trabalho. A Amazon.comconstitui o exemplo clássico deste formato de empresa. Outro exemplo são as empresasque sobrevivem negociando principalmente produtos virtuais, como é o caso bem sucedidodo Google.

Atualmente, os internautas dispõem de uma grande variedade de opções para decidironde adquirir produtos e serviços, cabendo destacar que tem aumentado significativamenteo percentual de compras on-line com relação ao mercado tradicional de consumo. Emconseqüência, o consumidor internauta, cada vez mais exigente tem um grande poder deinfluenciar o mercado empresarial através do uso de dois mecanismos:

1. O consumo consciente e criterioso, que pode privilegiar determinadas empresasem detrimento de outras;

2. Impacto sensível na reputação das empresas, uma vez que o internauta passa ater mais facilidade para entrar em contato com outros consumidores do produto ouserviço que está adquirindo.

Ciberespaço e Cibercultura 61

Pode-se deduzir do que já foi exposto que a dinâmica do ciberespaço acaba diluindo asações de uma “classe hegemônica”, dominante. Isto deve-se pela dificuldade em executarmanipulações em um espaço onde todos podem emitir mensagens, a ponto das informa-ções apresentarem contradições, que podem ser confrontadas, já que não há um sistemade controle e regulamentação.

Todos esses fenômenos relacionados ao ciberespaço, os quais estão intimamente as-sociados às formas de comunicação estabelecidas por computadores, proporcionam a for-mação de uma cultura diferenciada, a cibercultura. Desta forma, os novos dispositivos in-formacionais, como os que permitem estabelecer comunicação de um-para-todos e todos-para-todos, são os responsáveis pelas mudanças culturais das pessoas na sociedade. Porconseguinte, esta transforma a maneira das pessoas resolverem seus problemas, provo-cando modificações em seus estilos de vida.

3.2 A CIBERCULTURA

A definição do termo cibercultura tem como pano de fundo as novas tecnologias, comoas relacionadas à comunicação digital, à realidade virtual e à cibernética. Desta forma, acibercultura pode ser entendida dentro de um sentido amplo como as ações (de atitudes,de modos de pensamento e de valores) humanas que se desenvolvem juntamente com ocrescimento do ciberespaço.

Conforme (DERY, 1997), o espaço virtual, denominado ciberespaço, tem possibilitadoemergir uma nova cultura, criada com base nas utopias da era da informática, mas desvi-adas pela criação artística para rumos surpreendentes de: magia, misticismo, simulação ecomunidades virtuais que exemplificam as obras dessa cibercultura. Nessa linha de raci-ocínio, o espaço virtual transforma a natureza das relações dos homens e principalmenteprovoca mudanças radicais no imaginário humano. É preciso levar em consideração que oimaginário humano sempre esteve atrelado à tecnologia, cuja permeabilidade modifica osmecanismos de socialização de um dado grupo.

Ampliando a discussão sobre a sua definição, pode-se dizer que a cibercultura é umarranjo tecnológico fomentado na informática e na cultura contemporânea, formando umainterface da cultura com as novas tecnologias da informação e da comunicação. Ela está li-gada às diversas influências que essas tecnologias exercem sobre as formas de sociabilida-des contemporâneas: no trabalho, na educação, no lazer, no comércio, formando diversosvetores. Tais vetores relacionam-se à informatização de processos sociais e econômicos,à virtualização de objetos e espaços, à interligação do mundo através da rede, ao hiper-

62 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

texto, à iconização da interface homem-máquina e à interatividade entre homem-máquina ehomem-homem.

Para (LEMOS, 2004), o conceito de cibercultura não se desvincula do processo tecno-social da cultura atual em que as Novas Tecnologias de Informação e Comunicação - TICstransformam desde as práticas sociais, os modos de produção, o consumo de mídias, olazer, a educação e outras práticas mais. Segundo esse autor esta transformação torna-seevidente, na medida em que se observa:

• Uma sensação crescente de aceleração, instantaneidade na comunicação, as res-postas chegam rapidamente, as informações estão disponíveis globalmente e defácil localização;

• A compressão do tempo e do espaço e a rapidez dos fluxos no ciberespaço implicaque a distância, tal como é conhecida no mundo físico, decresce em importânciaaté os limites da aniquilação. As conquistas tecnológicas não somente subjugam oespaço, mas acelera o ritmo de vida, acabam por encolher e fragmentar o própriotempo.

Essa transformação por que passa a sociedade, ao mesmo tempo em que propicia a me-lhoria na qualidade de vida dos indivíduos, traz em seu bojo velhos problemas aumentadosem sua complexidade. Ao longo deste módulo serão tratados alguns destes problemas queapresentam-se como: analfabetismo digital, mal uso do conhecimento, organização dasmovimentações populares, entre outros.

3.3 VIRTUAL X REAL

O desenvolvimento de várias técnicas e tecnologias faz com que atualmente se pre-sencie um movimento geral de virtualização, que afeta não apenas a informação e a co-municação, mas além disso a própria realidade física dos indivíduos. Essas mudançasprovocadas pela virtualização vêm propiciando o “teletrabalho”, a virtualização econômica(“banco virtual”, “dinheiro virtual”) e o aparecimento da inteligência coletiva.

A virtualização vem penetrando continuamente em nossas vidas, constituindo “comu-nidades”, “empresas”, “escolas” virtuais, entre outros. Isso graças não somente aos pro-cessos de digitalização que têm largamente propiciado a possibilidade da onipresença nomundo contemporâneo. Essa penetração do virtual no cotidiano das pessoas ultrapassa ainformatização, atingindo maior grau de complexidade à medida que surgem artefatos queintegram elementos físicos e digitais.

Ciberespaço e Cibercultura 63

Nesse contexto, cabe buscar, como ponto de partida para o aprofundamento das ques-tões que envolvem esse processo de virtualização, compreender os conceitos de: virtual,virtualização, presença e real. Porém é importante destacar que a compreensão imediatada explicação filosófica a respeito destes conceitos é bastante complexa. Há de considerarque a clarificação e absorção de conceitos quase sempre demandam tempo de maturaçãoe de um trabalho de compreensão, desvelamento e busca de sentido. Deve haver consci-ência que para grande maioria dos profissionais da área de tecnologia da informação esseassunto ainda é pouco explorado, e que em qualquer momento poderá surgir a necessi-dade de rever conceitos talvez cristalizados e que, repentinamente, numa nova dinâmica,absorvem novos sentidos e significados.

Assim, faz-se necessário refletir os termos que neste século tem freqüentemente apa-recido nos bastidores do debate a respeito do que é o virtual, o real, o processo de virtu-alização e as mudanças que esses conceitos provocam na sociedade. Observa-se que ovirtual é um termo muito utilizado atualmente para a designar diversos processos e orga-nizações, principalmente envolvendo alta tecnologia, na sociedade moderna. Porém, essetermo não existe somente no mundo moderno, tornando difícil apontar quando começaramos processos que vem a constituir atos virtuais na sociedade. O que se sabe é que desdesua origem mesopotâmica, o texto escrito já representava um objeto virtual. Entretanto, aevolução e difusão dos artefatos digitais tornam esta questão muito mais complexa e aomesmo tempo pertinente.

O motivo, como apontado em (WEISSBERG, 1999), deve-se ao fato de que: “Ver ovirtual, como nos propõe a engenharia informática da simulação, significa redefinir com-pletamente as noções de imagens, de objeto, de espaço perceptivo” . Um exemplo clarodessa situação é o uso de mouse e ícones em sistemas computacionais. Com o mouse,um elemento físico, objetos virtuais são manipulados, como um ícone, por exemplo. Essacombinação de ações físicas e virtuais pode produzir resultados virtuais, como a alteraçãodo atributo do documento, ou resultados físicos, como a impressão.

As questões em torno da temática virtual/real foram profundamente analisadas nos es-tudos do francês Pierre Lévy, especificamente com sua obra “O que é o Virtual” (LÉVY,2001). Esse autor começa desmistificando o uso corrente do termo virtual, o qual tem sidoempregado com o seu significado corrente de ausência de existência. Nesse contexto, otermo real/realidade designa uma efetivação material, uma presença tangível, aquilo queexiste, enquanto a palavra virtual é usada com a conotação daquilo que é irreal. Nesseuso corrente, os termos “virtual” e “real” não são empregados caracterizando essas duasdimensões em um mesmo tempo, representando uma oposição clara entre os dois concei-tos. Apesar dessa significação possuir um grau de verdade, essa abordagem é bastantesuperficial e incompleta.

64 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Segundo Pierre Lévy, a palavra virtual origina-se do latim medieval virtualis, derivadode virtus que designa o que é potente, que tem força. O virtual pode ser definido, portanto,como um estágio de um processo permanente tanto que, para a filosofia escolástica, ovirtual é o que existe em potência e não em ato. Nesse sentido, o virtual não se opõe aoque é real, mas remete sempre ao estado diferenciado em que o virtual tende a atualizar-se, sem que seja no entanto passado à concretização efetiva, por isso, é algo que existeenquanto possibilidade. Lévy exemplifica o virtual utilizando o seguinte aforismo: “A árvoreestá virtualmente presente na semente. A árvore é, pois, o devir da semente, estandonesta, assim, já presente” (LÉVY, 2001).

Continuando o pensamento desse autor, para desmistificar uma falsa oposição entre oreal e virtual, ele reafirma que o virtual deve ser considerado como algo que existe em po-tência. E completa afirmando que o virtual é “complexo problemático, o nó de tendências,ou de forças que acompanha uma situação, um acontecimento, um objeto, uma entidadequalquer, e que, chama um processo de resolução, a atualização”. Desta forma, o virtualnão se opõe ao real, mas sim ao atual. O real pode ser considerado algo já constituído, en-quanto o virtual é um campo complexo de problematização, por isso coloca sempre algumaentidade suscetível de receber interpretações variadas. O virtual não é o possível, porquecontém em si todas as características do real. O virtual não é uma possibilidade, não é umalatência: “é uma potência em si de ser”. Retomando o exemplo da árvore, Lévy coloca queo “problema da semente é fazer brotar a árvore.(...) Mesmo ela ’conhecendo’ a forma daárvore que se expandirá com suas folhas em cima dela (...)”.

Lévy recorre a Gilles Deleuze para explicar que o possível, esse sim, se assemelha aoreal, havendo entre ambos uma diferença “puramente lógica”. Ou seja, o possível é umreal no limbo, que pode realizar-se (ou não), a qualquer tempo. Esse virtual é diferente doatual, uma vez que é o processo de resolução constante do nó de tendências que constituia virtualidade e a solução de um dado problema, portanto a atualização. Dessa forma, aatualização é a solução de um problema que não está contido anteriormente no enunciado.Essa atualização é portanto também a produção de novas qualidades, de transformaçõesdas idéias, por fim é um verdadeiro devir que alimenta de volta o virtual. O seu exemplopor excelência é um programa de computador, no que diz respeito à sua interação com umoperador humano. Nele, os resultados finais (as atualizações) não estão determinadas, poisserão resultados do processo de atualização, efetivada pela interação com a subjetividadedo operador.

Dos vários sentidos do virtual podemos identificar claramente aqueles que são cons-truções sociais e tecnológicas, em sua maior parte possibilitados pelas redes de comuni-cação e dispositivos computacionais. Além disso, outras definições do virtual advém deconcepção tradicional da virtualidade associada àquelas definições que encontram-se nos

Ciberespaço e Cibercultura 65

dicionários. Neste texto, a preocupação é distanciar do significado tradicional do virtual, aomesmo tempo aproximar da compreensão do virtual que parece possibilitado pela tecno-logia, inclusive com a sua peculiaridade que permite a desterritorização, o acontecimentoem nenhum lugar determinado. Para isso, parece conveniente aproveitar das acepções fi-losófica a cerca do que é o virtual, a fim de compreender as novas entidades virtuais e asinúmeras possibilidades de ações humanas por elas permitidos.

A complexidade na compreensão da relação entre os termos real e virtual trazido pelainformática pode ser verificada, por meio de alguns exemplos. Um determinado sistemacomputacional permite por exemplo uma percepção diferenciada do real, esse é o caso dealgumas ferramentas de visualização que alteram as imagens recebidas do mundo físico,propiciando maior nitidez, mesmo em condições adversas. O virtual torna-se nesse casouma forma de percepção do real.

Outro exemplo interessante é a simulação de fenômenos químicos, físicos e biológicosem ambiente computacional. Essa simulação não seria possível em ambiente real. Nessecaso, não se pretende a substituição do real pelo virtual, mas ajudar a lhe dar sentido ampli-ando a compreensão da realidade. Pode-se ter ainda alguns dispositivos em que se folheiaa imagem de um livro, manuseando uma tela tátil, de forma similar a um livro de papel, umcaso típico do prolongamento do real no virtual. Como último exemplo, pode ser verificadaa injeção do real no virtual: com o desenvolvimento da realidade virtual, a virtualização nãose trata apenas de simulação, mas de presença real no virtual possibilitado pela experiênciacom a imersão.

Segundo as acepções de Lévy, a virtualização é um movimento de extrapolação do con-creto observável, de desencaixe causa-efeito, de “simultaneização” das trocas e disponibili-dades de informações e seus reflexos nas consciências humanas e entidades construídas.Esse autor, conduz a leitura para além dizendo que a virtualização é uma desconstrução darealidade em busca de uma teoria, constituindo assim uma metapotencialização do real. Avirtualização teoriza a realidade em busca de novos sentidos, novas janelas, novos pontosde vistas.

Em outras palavras, a virtualização deve ser compreendida enquanto dinâmica, como omovimento inverso da atualização; enquanto a virtualização problematiza e eleva à potênciada entidade considerada - a atualização é a invenção de uma solução exigida por uma dadacomplexidade de problema. Nesse caso, a consistência maior da virtualidade é o campoda problematização a ser sempre repensada, em termos de hipóteses, de possibilidades,do devir. A atualização é a solução particular que acontece no aqui e no agora; ou seja,a solução assumida a cada momento pelo que potencialmente a entidade pode ser. Aresolução do problema vem a constituir-se, portanto, em uma atualização.

66 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Cada vez mais presencia-se o surgimento de várias entidades virtuais, que fogem dosentido de organização tradicional: local fixo, rotina de empregados batendo pontos, ho-rários definidos, entre outros. Nessas entidades virtuais, os empregados não estão fisica-mente presentes. No caso dos teletrabalhos, há rupturas dos antigos conceitos de tempoe espaço, o que por conseguinte obriga a organização virtual sempre estar repensando,problematizando uma forma de organização também virtual. Logicamente, as empresasvirtuais não possuem presença física, uma vez que elas não podem mais ser situadasprecisamente, já que seus elementos são nômades, dispersos, desterritorizados geografi-camente.

Novamente, esse autor foge da caracterização vulgar do virtual destacando o aspectode “não-presença”. O termo “não-presença” aparece sempre entre aspas, muitas vezessendo atribuído como metáfora da virtualidade. Esse conceito pode ser concretamenteaveriguado quando deparamos novamente com as várias entidades virtuais, empresas vir-tuais que são nômades, que atualmente fazem parte de nosso contexto, como aquelas quenão estão presentes, por não pertencerem a nenhum lugar ou situado geograficamente.Por conseguinte, isso não impede que as entidades virtuais existam no plano das açõesconcretas humanas, apesar dessas não terem um lugar de referência estável, e portantoserem desterritorizadas.

Outro exemplo interessante da característica da “não-presença” ocorre em uma comu-nidade virtual, que mesmo sem ter um lugar de referência estável, a virtualização reinventauma cultura nômade, em que um grupo de pessoas estão reunidos pelos mesmos núcleosde interesses, está repleta de objetivos, paixões, projetos e conflitos. Nessas comunidadesvirtuais, seus membros estão fazendo emergir meios de interações sociais muito dinâmicas.

Em continuidade, aprofundando o conceito de desterritorialização, Lévy aborda sobrea “não-presença”, característica peculiar da virtualização, como sendo o desprendimentodo aqui e agora. O autor faz um jogo de ambiguidade com os termos “presença”1 e “não-presença”, sendo que o segundo termo, “não-presença”, induz nos aos vários questiona-mentos, fomentando algumas reflexões:

• Seria o virtual um espaço de não-presença?

• Há inexistência ou relatividade de lugares?

• Seria o virtual, realmente, um despreendimento do aqui e agora?

• Qual a diferença entre onipresença e não-presença?

1O conceito de presença possue dois significados, segundo o Dicionário de Filosofia (ABBAGNANO, 1991),diz que é a existência de um objeto em certo lugar; outro diz que é a existência de um objeto numa relaçãocognitiva imediata; assim, diz-se que um objeto está presente quando é visto ou é dado a qualquer forma deintuição ou de conhecimento imediato.

Ciberespaço e Cibercultura 67

• Qual o significado do “entre aspas” que Lévy inclui no termo “não-presença”?

Lévy afirma que o ponto de reflexão recai sobre os principais operadores (das tecnoci-ências, das finanças, das telecomunicações e dos processos de digitalização ...) responsá-veis pela desterritorização que modificam nossas relações com o espaço-tempo precisos,favorecendo, com isso, a formação dos coletivos virtualizados e virtualizantes desse novomilênio. Simultaneamente, Levy conduz a pensar que essa “não-presença” tem o sentidoambíguo de onipresença e, por decorrência, ao conceito de velocidade, dado que o ob-jeto não é estático - ele se desloca na espacialidade numa busca de percorrer e reduzir asdistâncias.

Fala-se na atualidade com freqüência em objetos desterritorizados e assincrônicos si-multaneamente. Um exemplo são os grupos de aprendizagem colaborativa no ciberespaço,onde a unidade “tempo” é meramente uma simples referência de registro. Também observa-se na atualidade uma dinâmica no sentido de espaço e tempo; como se fossem conceitosem processos. Há uma variabilidade dos espaços e das temporalidades, decorrência dainterconectividade, da interligação de pessoas em redes. Mas cabe observar que, para aspessoas que não estão conectadas nessas redes, as distâncias e os tempos continuamexatamente os mesmos. Desta forma surgem questionamentos sobre quais as implicaçõessociais são desencadeadas nesta relação de distância e tempo, uma vez que esta relaçãonão é alterada pela virtualização para uma parte significativa da sociedade.

3.4 HIPERTEXTO, HIPERMÍDIA E MULTIMÍDIA

Conforme defendido em (LÉVY, 1995), por hipertexto entende-se um conjunto de nósligados por conexões. Esses nós podem ser palavras, páginas, imagens, gráficos, sons en-tre outros, que constituem o próprio hipertexto. Com os recursos de hipertexto e hipermídia,as informações não estão necessariamente dispostas linearmente, mas por interconexõesde nós, levando a outros conceitos e idéias, abrindo as possibilidades de navegações entreos vários conceitos diferentes. Isto dá forma a uma rede de informações rizomáticas e pos-sibilitam vinculações entre documentos ampliando as informações. À medida que existe apossibilidade de um assunto indexar outros formando nós de links, o nível de complexidadedo tema abordado cresce.

Porém, a fim de ampliar a compreensão sobre o conceito do hipertexto faz-se necessá-rio conhecer seu percurso histórico. Na década de 60, o termo hipertexto foi cunhado porTheodore Nelson para exprimir a idéia de escrita/leitura não linear das comunicações. A

68 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

idéia desse autor era criar o Xanadu2, uma imensa rede acessível em tempo real contendotodos os tesouros literários e científicos do mundo, semelhante a Biblioteca de Alexandria.Xanadu ajudaria as pessoas a escreverem, interconetarem-se, interagirem entre si, entreoutros. Dessa forma, Vannevar Bush, Theodore Nelson e Douglas Engelbart3 desenvolve-ram as idéias pioneiras de hipertexto dentro de uma visão de amplitude imensa. Os dis-positivos de informática, limitados pela capacidade de seus servidores de banco de dados,eram impotentes para gerir a grande quantidade de informações que os projetos Xanadu ouMemex almejavam. Ambos pressupunham um minucioso trabalho de organização, seleção,contextualização, acompanhamento e de orientação ao usuário.

Ambos Engelbart e Nelson vêem o hipertexto como um melhoramento no processo decomunicação, por oferecer caminhos alternativos de percepção e associação da informa-ção. Nos meios digitais atuais, o hipertexto, assim como a hipermídia, estão presentes namaioria dos artefatos tecnológicos, sendo que o hipertexto não exclui a dimensão sonorae visual. Todas essas dimensões de representações do real podem adquirir um formatode quase-texto e em muitos casos um hipertexto pode ser constituído por hipermídia evice-versa.

A digitalização da informação tem propiciado transitar entre os computadores mensa-gens em vários formatos. Esses possibilitam cada vez mais ao usuário estabelecer umarelação interativa e diferenciada com outras pessoas. Segundo (LÉVY, 1995), a idéia do hi-pertexto foi primeiramente enunciada em 1945, por Vannevar Bush, quando esse escreveuo artigo “As We May Think”4(BUSH, 1945). Nesse artigo, o autor propunha a construção doMemex, que seria um dispositivo, parecido com uma estante, para armazenar conteúdo deforma conectada. Com esta conexão entre os documentos, Bush queria possibilitar a con-sulta aos mesmos, de forma não-linear e não de acordo com os sistemas de indexações daépoca, em ordem alfabética, hierárquica ou numérica. Na busca de aperfeiçoar o Memex,Bush criou as trilhas associativas, que permitiam que os registros fossem consultados damesma forma que o pensamento humano, ou seja, através de associações. O projeto deBush também permitia que os donos de um Memex gravassem suas trilhas e assim fossemtrocando uns com os outros, para saberem por onde o outro passou e assim fazer novoscaminhos, como numa espécie de escrita coletiva.

Bush chamou a atenção para o fato de que as informações escritas estão classificadaspor itens sobre uma ordenação lógica hierárquica de classes, subclasses, entre outras.Dessa observação, esse autor afirma que a mente humana não funciona conforme essaorganização lógica que a comunidade científica privilegia, uma vez em que o pensamento

2Xanadu encontra sua forma atual no site http://www.xanadu.net.3Engelbart - famoso pelo desenolvimento do mouse no Centro de Pesquisa de Stanford (SRI) em 1963.4Artigo na íntegra: http://www.theatlantic.com/doc/194507/bush.

Ciberespaço e Cibercultura 69

humano ocorre por associações de conceitos, por conexões de idéias e experiências. O quesignifica que a mente humana passa de uma representação à outra fazendo um percursomais complexo do que os bancos de dados e as escritas utilizadas no ano de 1945 (BUSH,1945).

A partir dessas constatações, Bush propõe inspirar-se no processo em que a inteligên-cia funciona por associações não-lineares, por intuições, muito imediatas, propondo criarsistemas de ligações independentes de qualquer classificação hierárquica entre as infor-mações. Nessa estrutura, para uma dada conexão, cada vez que determinado item fossevisualizado, todos os outros ligados a ele poderiam ser instantaneamente recuperados,através de ações simplificadas, como o toque de um botão. Nesse momento, o disposi-tivo Memex surge com o objetivo de fazer a classificação e a seleção por associação, asligações são criadas independentes de quaisquer classificações hierárquicas entre as infor-mações, com funcionamentos mais ou menos semelhantes às idéias acima defendidas porVannevar Bush.

Bem mais tarde, em 1989, Tim Berners-Lee cria a Web (World Wide Web) que é consti-tuída por um grande conjunto de links que formam inúmeras conexões hipertextuais, o qualé considerada por muitos como um exemplo clássico de hipertexto. Na Web, as informa-ções não estão dispostas mediante sistema fechado de banco de dados de links. De acordocom a sua estrutura é possível construir informações fazendo referências hipertextuais ci-tando vários documentos, o que permitem o crescimento constante da Web. Inclusive, essaforma aberta constituída pela Web não traz garantia de que os hiperdocumentos conecta-dos por nós estejam todos acessíveis. Além disso, a arquitetura da Web dá liberdade paraque as pessoas referenciem textos sem que consultem as permissões de referências aosprodutores originais desses documentos: as liberdades que constituem a Web permitem asua amplitude de escalabilidade sem precedentes.

Porém, Ted Nelson critica a Web, afirmando que a estrutura de suas páginas não con-figuram uma rede hipertextual, considerando-a como um diretório decorativo. Na realidade,Nelson chama como hipertexto algo ligado à idéia de links bidirecionais, ao contrário daunidirecionalidade que são muito encontradas nas páginas da Internet. Ele considera queos links deveriam ir em ambos caminhos, levar e trazer de volta os usuários, bem como ir evoltar, argumentando que estas possibilidades só são possíveis mediante o ícone voltar donavegador.

As páginas do documento do sistema que Nelson projetou deveriam manter conecta-dos entre si mesmo sofrendo freqüentes modificações. Ainda deveria permitir a construçãode forma coletiva pelos leitores e autores desses documentos. Assim, a crítica de Nelsonresume-se no argumento do problema da limitação que a maior parte das páginas Web, per-mite ao usuário percorrer caminhos pré-estabelecidos, não lhe sendo possível incluir novos

70 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

destinos na trilha do hipertexto, mas somente a escolha entre opções que lhes são ofere-cidas pelo programador da página. Nelson argumenta que está faltando à Web constituir-se em um espaço de construção de conhecimento efetivamente coletivo, com mecanismohipertextual em que programadores e usuários possam interagir completamente entre si,trocando informações, reproduzindo e reconstruindo os documentos e traçando novos ca-minhos por entre uma infinita rede de dados.

Dessa maneira, um hipertexto pode ser considerado como uma construção multimídiainterativa que possui características multidimensionais, dinâmicas. Um hipertexto pode serconstituído por esquemas, diagramas e gráficos, os quais formam sua linguagem escritapara além de algo estático e linear. Segundo Pierre Lévy, todos esses recursos dão aohipertexto vias de acesso e instrumentos de orientação em um domínio do conhecimentosob a forma de diagramas, de redes ou de mapas conceituais manipuláveis e dinâmicos.Nesse sentido, o hipertexto quando bem constituído pode favorecer um domínio mais rá-pido e mais fácil de uma determinada matéria do que através de recurso audiovisual ousimplesmente do suporte impresso habitual.

Por outro lado, no livro Tecnologias da Inteligência (LÉVY, 1995), o autor afirma queainda que milhares de hipertextos tenham sido elaborados, após as primeiras visões deBush e Nelson até aquele momento, não havia um que concretizasse o que ambos ideali-zaram como hipertexto e destacam três razões para isto:

• Não se sabia ainda programar bancos de dados acima de certa ordem de grandeza;

• O preço de uma tecnologia que indexasse, digitalizasse as informações de diferen-tes suportes, seria muito elevado

• O dispêndio de um minucioso trabalho de organização, seleção, contextualização,de acompanhamento e orientação ao usuário, já que na época tudo o que era vistocomo interativo, ainda estava por ser inventado.

Há que se considerar que estas dificuldades no início da década de 90 eram bem reais,ao contrário de hoje. Por sua vez, é compreensível a colocação de exemplos, como umanavegação em um CD-ROM , destacada por Lévy, as possibilidades de navegação não-linear, como algo essencial de um hipertexto, uma vez que na elaboração deste livro estemeio era considerado um dos mais interativos. Em livro mais recente, O que é o Virtual(LÉVY, 2001), o autor continua os estudos sobre hipertexto mencionando com entusiasmoque:

o suporte digital permite novos tipos de leituras (e de escritas) coletivas. Umcontinuum variado se estende assim entre a leitura individual de um texto precisoe a navegação em vastas redes digitais no interior das quais um grande número de

Ciberespaço e Cibercultura 71

pessoas anota, aumenta, conecta os textos uns aos outros por meio de ligaçõeshipertextuais.

Ao afirmar isto, o autor considera que toda a leitura no computador é uma edição, umavez que o hipertexto eletrônico amplia potencialmente a liberdade de movimento do usuário,por permitir-lhe escolher dentre os vários caminhos possíveis neste suporte. O autor tam-bém destaca a fusão entre os papéis de autor e leitor pelo fato do usuário poder construirseu próprio caminho, ressaltando que o usuário exerce o papel de autor ao recriar o textoconforme seleciona o caminho de leitura do hipertexto, através de seus links.

Apesar de ser possível concordar com Pierre Lévy é necessário destacar, entretanto,que esse poder de autor é extremamente limitado dentro da Web padrão, o exemplo maisconcreto de hipertexto. Como se sabe qualquer usuário da Web não tem como alteraros conteúdos da maioria das páginas e inserir e/ou exclui-los, restando-lhe apenas a opçãopara percorrer o caminho. Um fenômeno mais recente que tem provocado uma participaçãomaior do usuário e, por conseguinte de sua autoria, é a Web 2.0, que foi discutida naSubseção 2.3.9 desse texto.

Um aspecto importante a ser observado no documento hipertextual, como apoio peda-gógico, diz respeito, ao processo da escrita e da leitura que se dá mediante trocas de papéisentre emissor e receptor. Conforme (LÉVY, 1995), a pessoa que participa da estruturaçãode um documento hipertextual já é um leitor; enquanto que a pessoa que atualiza um per-curso, ou manifesta determinado aspecto da reserva documental, contribui para a redação- num processo de escrita interminável. Por conseguinte, quando o leitor de documentoshipertextuais faz seu próprio percurso, com os cortes e remissões, ele acaba por criar umsentido original, incorporando uma outra estrutura ou texto.

Na prática, quando alguém usa os recursos da hipertextualidade, ele pode ir e vir, per-correr o texto, fazendo seu próprios recortes o que originará um texto novo, dele, produzidoa partir de sua leitura e vivências e não necessariamente a partir da visão do autor. Estaliberdade de ação foi potencializada a partir do uso do computador e seus recursos. Porém,alguns livros como: a “Biblia Sagrada”, “O Jogo da Amarelinha”, entre outros, oferecemdiversas possibilidades de leituras. No caso de “O Jogo da Amarelinha”, de Júlio Cortázar,há possibilidade do leitor criar pelo menos três tipos diferentes de histórias, o que poderiaser considerado uma tentativa de hipertextualidade a partir de um livro impresso.

Um documento hipertextual bem elaborado, com ricas estruturas de conexões, acabapor dar opções ao leitor para construir, dinamicamente, um outro documento rico em signifi-cação, uma vez que, através de cliques com o mouse, o leitor constrói o percurso desejadoe elabora uma rede semântica conforme seus interesses e apreensões de experiências an-teriores. Pode-se dizer que, nesse pormenor de conceber um documento hipertextual ou

72 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

outro texto escrito que seja, considerado como sendo uma construção montada, não há quedescartar também que essa montagem é obtida a partir da sincretização da matéria-primaoferecida por outros discursos do presente e do passado. Essa mensagem montada citaexplícita ou implicitamente vários outros autores e interpretações dos mesmos.

Na concepção do “texto” em Bakhtin (ver, por exemplo, (LOPES, 1993)), o texto é tam-bém um hipertexto. Dessa forma, o texto escrito de qualquer natureza mantém um diálogopolissêmico com o leitor, uma vez que esse leitor possui várias vozes interpretativas dessetexto. Então, percebe-se que quem monta uma estrutura hipertextual é também um leitorpotencial, com suas interpretações próprias. Do outro lado, o navegador que percorre opercurso dessa montagem pré-estabelecida é habitado por vozes interpretativas e produzoutro texto mais interativo do que antes, quando somente lia determinado texto de formaseqüêncial (impresso). Ou seja, o documento hipertextual dá concretude de uma elabo-ração de escrita e leitura mais dinâmica e comunicativa. Além disso, a característica dainteratividade no hipertexto possibilita ao usuário estabelecer comunicação direta entre ospares do produtor hipertextual e leitor através da comunicação entre um-para-todos, outodos-para-um, senão todos-para-todos, divergindo dos suportes de material impresso um-para-muitos. Em (SILVA, 2001) é delineado o papel que vem exercendo o novo espectador,ou seja aquele usuário que lida com as mídias digitais, assinalando que:

“Com o hipertexto ele aprende a “nova gramática dos meios audiovisuais” - a mul-timídia, a hipermídia. Aprende novos parâmetros de leitura e de conhecimento.A leitura é “de tipo cinéstésico, atenta ao mesmo tempo ao que é dito, ao que émostrado nos vários quadros simultâneos e ao que é comentado por meio dosinúmeros textos que correm paralelamente sobre as imagens”. E o conhecimentodeixa de situar-se no plano da emissão do saber, para emergir da atividade cone-xional... Deixa, portanto, de submeter-se ao modelo reducionista e disjuntivo dopensamento simplificador que separa emissão e recepção, e abre-se à perpectivado pensamento complexo. O pensamento que “trabalha com um número extrema-mente elevado de interações, de interferências que se dão entre as unidades dosistema considerado e também com as incertezas, as ambigüidades, as indeter-minações, as interferências de fatores aleatórios e o papel modelador do acaso”.Eis a perspectiva comunicacional que se abre para o novo espectador!”

Então, pode-se dizer que o documento hipertextual, determina uma estrutura diferen-ciada: das informações propiciando a quebra de uma estrutura linear, a qual apresenta eelabora textos bem limitados em seu uso. Por último, a partir do delineamento sobre hi-pertexto e das reflexões sobre o mesmo, o internauta pode usufruir de forma diferenciadadessas novas roupagens para construção significativa de determinado assunto.

Ciberespaço e Cibercultura 73

Conforme já foi dito, a hipermídia também pode formar um hipertexto. Para fins didáticossegue-se neste texto uma tentativa de definir o que é hipermídia e suas nuances quantouma tecnologia. Em (HOUAISS, 2001), o termo hipermídia é definido como sendo:

“sistema de registro e exibição de informações informatizadas por meio de com-putador, que permite acesso a determinados documentos com texto, imagens es-táticas ou em movimento, sons, software, a partir de links que acionam outrosdocumentos e assim sucessivamente”.

Para Marcos Silva em (SILVA, 2001):

“Há a multimídia “linear” que “apenas conta histórias” e a multimídia definida comocomposição de “sistemas muito abertos que dão oportunidade de o usuário ter suaprópria experiência de conteúdo, única”. Esta distinção feita por D. Kapelian (cit.,cap. I) não menciona a hipermídia, mas há este termo para designar especifi-camente a segunda modalidade de multimídia. A primeira modalidade define-secomo qualquer combinação de texto, arte gráfica, som, animação e vídeo moni-torada por computador e exposta aos sentidos do receptor. Este, usuário dessamultimídia “linear”, conta com opções de escolha que ele pode combinar. (...)“A hipermídia conta com as opções de escolha da multimídia “linear” mas nessecaso o usuário dispõe de uma estrutura hipertextual pela qual pode mover-se comautonomia não só para combinar os dados, mas para alterá-los, para criar novosdados e para criar novas rotas de navegação. Na hipermídia o uso conta comelementos hiper-linkados num sistema rizomático com múltiplas entradas e saí-das, no qual pode mover-se com muita liberdade. Ele guia-se por meio de sinaise dispõe de palavras e conteúdos que, ao ser acionados, apresentam ligaçõesmúltiplas que conduzem a outras palavras e conteúdos configurando um mapade caminhos intrincados e labirínticos por onde o usuário pode navegar e, nesteambiente, permutar e potencializar.”

Com essa citação pretende-se chamar a atenção para o fato de que alguns autores nãodiferenciam o termo hipermídia do termo multimídia, principalmente quando esta apresenta-se sob o conceito de hiperdocumentos, conforme discutido abaixo nesta seção. Outrosautores, como (SILVA, 2001), usam o termo hipermídia para designar documentos multimo-dais interativos em que há oportunidade do usuário estabelecer uma experiência única eindividual.

Para Hamilton Chaiben, em (CHAIBEN, 2002), a distinção entre os termos hipertextoe hipermídia torna-se cada vez mais obscura devido às crescentes facilidades de comuni-cação através das mais variadas tecnologias. Alguns autores preferem conceituar hiper-mídia como o resultado da integração de hipertexto com multimídia, distinguindo portanto

74 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

as duas tecnologias. Desta forma, esse autor prefere distinguir os dois termos, afirmandoque o termo hipermídia, subentendido pela definição tradicional, é caracterizado como umamaior abrangência com relação às maneiras de expressar o conhecimento: ele pode serconsiderado simplesmente uma reavaliação do termo original hipertexto em conseqüênciade uma evidente evolução tecnológica.

Material impresso, como um livro, tem sido tradicionalmente o principal meio de arma-zenamento do conhecimento. Nesse tipo de meio, as informações estão geralmente orde-nadas em páginas seqüenciais para serem lidas de modo linear. Ao contrário do suporte deinformação impresso, os sistemas hipermídia podem representar uma coleção de arquivosinterconectados em uma rede. E os usuários são livres para progredir, ou navegar, atravésdo conhecimento do sistema utilizando vários caminhos distintos e não seqüenciais, cujasligações foram de alguma maneira estabelecidas pelo projetista.

Seguindo essa idéia, o ambiente hipermídia oferece novas possibilidades de acessoàs grandes e complexas fontes de informações. Hamilton Chaiben, em (CHAIBEN, 2002),afirma que a vantagem essencial do documento não-linear é a capacidade de organizarobjetos de diversas maneiras, dependendo das diferentes visões e demandas. Para ele,o modelo hipermídia incentiva o autor a criar referências e modularizar suas idéias, em-bora ele seja obrigado a tomar decisões difíceis sobre qual a melhor maneira de particionaradequadamente as informações. Em (CONKLIN, 1987) são destacadas uma série de van-tagens de um modelo hipermídia, podendo ser citadas:

Facilidade de seguir as ligações: A interface com o usuário é uma das característicasmarcantes em sistemas hipermídia. O ambiente gráfico proporciona facilidade denavegação em grandes espaços de informação.

Estruturação da informação: Tanto as organizações hierárquicas como não hierárquicas,podem ser aplicadas sobre informações não estruturadas. Até mesmo hierarquiasmúltiplas podem organizar o mesmo material.

Customização de documentos: Os segmentos podem ser estruturados de várias manei-ras permitindo que o mesmo documento sirva para múltiplas funções.

Modularidade da informação: Uma vez que partes do mesmo documento podem ser refe-renciadas de vários lugares, as idéias podem ser expressas com pouca sobreposiçãoou duplicação.

Consistência da informação: As referências estão embutidas no documento e mesmoque este seja movido pelo autor, as informações das ligações continuam dando acessodireto àquelas referências.

Ciberespaço e Cibercultura 75

Facilidade de criar novas referências: Os usuários podem simplesmente fazer comen-tários ou anotações em um documento, enquanto as demais referências continuaminalteradas.

Colaboração: Vários autores podem cooperar na criação de um mesmo documento ousimplesmente adicionar e compartilhar comentários.

Cabe destacar porém que os sistemas de informação hipertextual e hipermídia pos-suem alguns problemas clássicos, freqüentemente citados, com relação à sua utilização.Dentre esses, pode ser destacado a desorientação: esse suporte informativo, possibilitaque o usuário sinta-se “perdido no hiperespaço”. Às vezes, o usuário não se sente se-guro de onde ele está em relação a outras partes da rede, ficando com dificuldade paraencontrar alguma informação que tinha certeza que estava em algum lugar no sistema.Esta tendência aumenta consideravelmente com o tamanho e a complexidade do hiper-texto. Nesse sentido, torna-se preciso a construção de estruturas conceituais que podemser eficazmente representadas pela exposição gráfica, e o problema da desorientação sercorrigido através de algum tipo de mapa.

Por outro lado, a necessidade de acompanhar as ligações (links) pode acarretar sobre-carga cognitiva adicional, podendo significar que alguma capacidade de processamento deinformação é desviada para a tarefa de tomada de decisão, que não deixa de ser a essên-cia do trabalho com hipertexto. De outro modo, esta capacidade poderia ser concentradano material sendo pesquisado ou estudado. Esta sobrecarga está presente até mesmo noprocesso de leitura de um documento hipertexto.

Uma outra tecnologia que faz parte da nova roupagem das comunicações digitais consti-tuem a multimídia. Segundo o dicionário Houaiss da Língua Portuguesa, (HOUAISS, 2001)“multimídia é a técnica para apresentação de informações que recorre simultaneamentea diversos meios de comunicação, mesclando textos, sons, imagens fixas e animadas.”.Etimologicamente, multimídia significa “múltiplos meios”, mas, conforme cada autor há de-finições diferenciadas dessa terminologia.

Antes de definir a variedade de conceitos de multimídia, faz-se necessário averiguar oque vem a ser mídia. Mídia pode ser considerado o suporte ou veículo de transporte damensagem, como: rádio, a televisão, o impresso, o cinema, a Internet, entre outros. Todosesses suportes veiculadores de mensagens são as mídias. Vários autores conceituam amultimídia de diferentes formas. Para (LUIS, 2002), “multimídia é o resultado da integra-ção ou convergência de texto, gráficos (animação), áudio (som) e vídeo”. Em (VAUGHAN,1999), multimídia é qualquer combinação de texto, arte gráfica, som, animação e vídeo quechegam pelo computador ou outros meios eletrônicos. Já Nacho B. Martín, em (BUSTOS,

76 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

1998), diz: multimídia, por definição é a conjunção de distintos meios, tais como: textos,imagens, vídeos, sons, animações, etc.

Em todos os conceitos de multimídia, delineado, pelos vários autores supra citados,a multimídia é caracterizada como um conjunto de linguagens (textual, visual e sonoro).Porém em (LÉVY, 2000), o termo é tratado com maior complexidade e incorpora um novoelemento: documentos multimodais interativos de suporte digital. No entanto, esse autornão se restringe a essa significação, apresentando toda uma polêmica em cima dessetermo. Em (LÉVY, 2000), são apresentados vários significados para o termo “multimídia”:

Emprega diversos suportes ou diversos veículos de comunicação: segundo esse au-tor, essa significação é muito pouco utilizada atualmente. Observe que, de acordocom esse significado, o circo, por exemplo, é “multimídia”, pois utiliza-se de váriostipos de linguagem (cinestésico, corporal, sonoro, etc). Conforme Levy, “(...) Hoje, apalavra refere-se geralmente a duas tendências principais dos sistemas de comunica-ção contemporâneos: a multimodalidade e a integração digital”.

Hiperdocumentos: conforme Levy, ao utilizarmos o termo “multimídia” para designar osCD-ROMs, estamos cometendo um equivoco. “(...) Se o sentido deve ser ’multimo-dal’, o termo não descreve suficientemente bem a especificidade deste novo suporte,já que uma enciclopédia, ou alguns livros manipuláveis para crianças, ou brochurasilustradas acompanhadas por fitas cassete (tais como: os métodos de ensino de lín-guas) já são multimodais (texto, imagem, som, tato), ou mesmo multimídia (...)”. As-sim, para esse autor os CD-ROMs (ou mídias similares) são “documentos multimodaisinterativos de suporte digital” ou, de forma breve, “hiperdocumentos” .

Movimento geral de digitalização: esse significado “(...) diz respeito, de forma mais ime-diata ou mais distante, às diferentes mídias que são a informática (por definição), otelefone (em andamento), os discos musicais (já feito), a edição (parcialmente rea-lizado com os CD-ROMs e CD interativos (...)”. Assim um CD-ROM, por exemplo,designa “um horizonte de unimídia multimodal, ou seja, a constituição progressiva deuma estrutura de comunicação integrada, digital e interativa”.

Emergência de uma nova mídia: quando empregada nesse sentido, Levy considera seuuso inadequado, “(...) já que chama atenção sobre as formas de representação (tex-tos, imagens, sons etc.) ou de suportes, enquanto a novidade principal se encontranos dispositivos de comunicação interativos e comunitários ou, em outras palavras,em um modo de relação entre as pessoas, em uma certa qualidade de laço social”.

Dessa forma, ampliando o conceito de multimídia para além dos suportes digitais, pode-se concluir que uma simples caixinha de música que toca pode ser considerada uma mul-timídia, uma vez que se tem a integração da linguagem visual e sonora. Um programa

Ciberespaço e Cibercultura 77

televisivo é um programa multimídia por suportar imagens, sons e textos. Aumentandoa complexidade, qualquer software ou programa informático também é multimídia já quesuportam vários tipos de linguagens.

A diferença básica entre essas mídias reside no fato que as aplicações informáticas,em geral, permitem as pessoas usuárias ter um controle maior ou menor de ordem e detempo em que queira receber a informação que lhe ofereça. Pode-se dizer que as apli-cações multimídias não possuem o mesmo nível de interatividade. Em sua maioria, essenível de interação vem determinado com o grau em que se estabelece uma comunicaçãobidirecional entre o usuário e a máquina.

Em um programa de televisão, por exemplo, somente é permitido às pessoas exercerema função de espectadoras, elas têm apenas a permissão de trocar de canais. A maneiraflexível em que as informações podem ser estruturadas, com seus diversos suportes me-diáticos de sons, imagens fixas em movimentos, entre outros, têm propiciado uma mudançaradical na concepção que até então se tinha formulado sobre a multimídia. Inclusive, é de seesperar, cada vez mais, que o conceito de multimídia incorpore um certo nível de interação.

3.4.1 Comunidades Virtuais

Antes da popularização da Internet, uma comunidade era definida como um grupo depessoas que tinham interesses comuns e agrupavam-se a fim de alcançá-los. Essas comu-nidades possuíam um ponto de referência em um local geográfico determinado, como umacidade, onde se vivia, ou um bairro em que residia, ou mesmo uma igreja em que partici-pava. Para fazer parte de cada uma dessas comunidades, os participantes deveriam aderiràs normas desse grupo. Porém, a partir do momento que uma comunidade não é mais umconceito dependente de um lugar, torna-se necessário refletir a respeito do que é e o quenão é comunidade.

Conforme afirma (PALLOFF; PRATT, 2002), no momento em que o ciberespaço se po-pularizou, as comunidades diversificaram-se e constituiram-se em atributos dos mais varia-dos, com isto tornou-se difícil determinar o que significa exatamente a palavra comunidade.Sendo assim, definir os limites do conceito de comunidade, no contexto do ciberespaço, im-plica pensar a aplicabilidade desse conceito aos agrupamentos eletrônicos da cibercultura,como: listas e fóruns de discussão, salas de bate-papo, newsgroups, entre outros. Dessaforma, muito tem-se falado que o ciberespaço gera afinidades entre as pessoas e estimulaa formação de comunidades. Inclusive, em (HARASIM; TUROFF, 1996), é argumentadoque referenciar a Internet utilizando a terminologia “supervia ou autopista da informação”confunde as pessoas quanto ao que realmente seja a Internet. Para esses autores, as ca-racterísticas e inúmeros serviços disponíveis na Internet tornam-na mais próxima do que

78 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

se compreende por comunidade, do que propriamente uma rede onde transita informação,conforme essas terminologias induzem a compreender.

Nesse sentido, as inúmeras agregações de pessoas no ciberespaço são comumentedenominadas comunidades virtuais. Como é afirmado em Palloff e Pratt, as primeiras co-munidades eletrônicas tem como razão primeira para sua existência satisfazer grande partedas necessidades humanas, no sentido das pessoas estarem agregando com outras quepossuem interesses e objetivos similares, os quais são os motivos que sustentam as suasconexões. Pode-se considerar como primeiras formas de agregações eletrônicas surgidasna década de 60 nos EUA, o momento em que instituições universitárias adquiriram seusprimeiros mainframes equipados com sistemas de tempo compartilhado time-sharing. Comtime-sharing é possível realizar a comunicação interativa, como: o bate-papo e troca decorreio eletrônico com outros usuários do mesmo sistema. Na década de 70, estes compu-tadores passaram a ser inteconectados entre si pela nascente Internet e as comunidadespassaram a extrapolar suas origens regionais, bem como a criar identidades próprias ediversificadas.

Atualmente, muitos pesquisadores da cibercultura, como por exemplo, (LEMOS, 1999)tem buscado desmistificar o que realmente pode ser considerado comunidade virtual eagregações eletrônica. Para esse autor não basta a pessoa fazer uso de várias ferra-mentas, como: chat, listas de discussão, entre outros; é necessário que haja interessesem compartilhar sentimentos comunitários e permanecer relacionando-se por um dertermi-nado tempo para se ter uma comunidade virtual. Os membros dessa comunidade virtualprecisam manter-se constantemente motivados e permanecerem em intensa comunicação,mesmo diante das ausências de contatos corporais e as demarcações das distâncias geo-gráficas.

Em uma comunidade virtual os preconceitos, as fobias e inseguranças devem ser su-peradas, ao mesmo tempo que é cada vez mais difícil saber com quem está se comuni-cando, uma vez que a impessoalidade é uma característica própria da condição das redestelemáticas. Por sua vez, essa impessoalidade causa certa insegurança e fugacidade noestabelecimento de contatos por esta via de comunicação. Como característica positiva dacomunidade virtual, constam as suas articulações que ocorrem praticamente de forma ins-tantânea, as pessoas podem entrar num assunto desejado imediatamente. Por outro lado,como já dito, as relações são anônimas já que o aqui e agora da situação face-a-face éalgo cada vez mais distantes, o que traz a essa relação mediada por computador uma novadinâmica ao quotidiano.

Todas peculiaridades que caracterizam uma comunidade virtual são os elementos queinduzem afirmar que ingressar nela e continuar a ser seu membro acarreta um processodiferente, que pode ser algo difícil para algumas pessoas. Por sua vez, (LEMOS, 1999) con-

Ciberespaço e Cibercultura 79

sidera que existem no ciberespaço agregações não comunitárias, as quais são chamadasagregações eletrônicas. Nessas agregações eletrônicas, os participantes não se sentemenvolvidos, uma vez que essas agrupações são “locus” de encontro e de compartilhamentode informações e experiências de caráter totalmente efêmero e desterritorizado.

Os vários recursos, como salas de chat e listas de discussões, podem ser tanto agre-gação eletrônica comunitária ou não comunitária. O que irá distinguir isto é o tipo de usoque o participante faz desses recursos. Por exemplo: em uma sala de bate-papo, se o par-ticipante sempre encontra seus “pares”, reconhecendo-os por si mesmo, com eles trocamexperiências de cunho privado, com sentimentos que expressam uma afinidade subjetiva,há cooperação mútua na resolução de problemas, o recurso pode estar sendo usado a fimde manter a comunidade em pleno vigor. Mas se por outro lado, o participante aparece nobate-papo apenas de passagem como todos os demais, caracterizando-o como um “nãolugar”, então o participante utiliza o bate-papo como uma forma de agregar-se ao outro,sem vínculo como membro desse agrupamento de pessoas. O ciberespaço está povoadopor inúmeras relações grupais eletrônicas que cultivam esses dois tipos. Na grande maio-ria o próprio interesse do indivíduo participante e os objetivos que as constituiram formamas bases para caracterizar o que trata de uma comunidade virtual ou simplemente umaagregação eletrônica.

Ainda para (LEMOS, 1999), as relações grupais eletrônicas podem ser constituídas apartir de dois parâmetros: os vinculados territorialmente, ou físicos e os temáticos. No pri-meiro é mais possível que seus membros também se conheçam fisicamente, sendo estaforma de agregação um complemento para algo que existe fora do ciberespaço. Por suavez, na agregação eletrônica seus membros dificilmente se conhecem pessoalmente, massua construção é motivada pelo assunto temático discutido pelo grupo. Para ambos parâ-metros de relações eletrônicas podem ocorrer os dois tipos comunitários ou não comunitá-rios, sendo que a forma de comportamento em que os participantes desses agrupamentosestabelecem podem inferir a presença ou não de laços comunitários entre seus membros.

3.4.2 Formação e Funcionamento das Comunidades Virtuais

Com a ampliação das possibilidades comunicativas permitida pelos dispositivos digi-tais, os relacionamentos das pessoas tornaram-se cada vez mais complexos. Em nossocotidiano, as comunidades, bairros, as cidades são tanto virtuais quanto reais, tanto globaisquanto locais. Pode-se dizer que as tecnologias tem possibilitado criar uma forma de depen-dência recíproca social, em que torna viável a formação de novas comunidades onde querque disponibilizem links comunicativos. É importante observar que essa interdependênciasocial que os internautas acabaram habituando-se é a chave que permite a construção

80 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

de comunidade nos grupos on-line, mesmo que seus membros nunca tenham tido contatofrente a frente. Em outras palavras, é possível criar o sentimento de comunidade sem aocorrência de presença física.

Ainda que a presença física seja útil em determinado momento para avançar o desen-volvimento da comunidade. (PALLOFF; PRATT, 2002), assinalam que da mesma forma queas normas são negociadas e formadas nas comunidades convencionais, elas são estabe-lecidas no ambiente online. Porém, os autores observam que as normas são negociadascolaborativamente e acabam por ser mais rígidas, já que elas constituem os fundamentospara a sua existência. Somente com acordo a respeito de como um grupo interagirá onlinee os seus objetivos claramente expostos é que a comunidade seguirá adiante. Ainda estesautores concordam com alguns passos básicos a serem dados para a constituição de umacomunidade, destacando-os como necessários para criação de fortes conexões, como:

• definir claramente a proposta do grupo:

• criar um “local” diferenciado para o grupo;

• promover lideranças internas eficientes;

• definir normas e um claro código de conduta;

• permitir que haja uma variedade de papéis para os membros do grupo;

• permitir e facilitar subgrupos;

• permitir que os participantes resolvam suas próprias discussões

Esses passos são essenciais para que seja estabelecida uma comunidade virtual, emque haja qualidade no relacionamento que se forma online. Eles constituem bases paraos membros do grupo ir construindo um compromisso consciente entre si, em que é enfati-zado as necessidades de crescimento pessoal e transformação de seus membros, tanto arespeito dos aspectos sociais, como dos fatores relativos à permanência da comunidade.

Estudiosos da área organizacional e do comportamento de grupo destacaram que pri-meiro as pessoas reúnem-se em torno de um objetivo comum, constituindo o estágio desua formação. No próximo passo, seus membros procuram uns pelos outros para descobrircomo trabalhar por objetivos comuns, ao mesmo tempo estabelecem normas de compor-tamento mediante discussões e acordos construídos colaborativamente. Nesse segundopasso, é comum que seus membros entrem em desacordo, uma vez que seus participan-tes discutem enquanto se dá a disputa entre a negociação das diferenças individuais, emcontrapartida ao propósito e objetivo do grupo. O conflito é essencial para que os membrosdo grupo alcancem afinidades comuns, mas é preciso que seja superado, do contrário osmembros podem desintegrar-se ou mesmo passar por cima das discordâncias.

Ciberespaço e Cibercultura 81

Pesquisadores da formação de comunidade virtual, como (PALLOFF; PRATT, 2002),afirmam que os grupos que são constituidos on-line passam pelos mesmos estágios queos presenciais, mas eles observaram que os conflitos que surgem em grupos on-line têmmais dificuldades de serem superados. As argumentações para justificar estas dificuldadesem resolver conflitos on-line surgem a partir dos limites advindos dos meio de comunicaçãodigital que privilegia o modo textual. Nessa comunicação, as pessoas têm dificuldades emdescobrir os sentimentos dos outros membros. Inclusive, para permitir que o outro saibaquais são as preocupações referente a discussão, é preciso que a mensagem veiculadapelo participante seja aberta. Além disso, as dificuldades que um grupo encontra para che-gar em comum acordo pode ser propiciada pela assincroniedade ocasionada pela seqüên-cia e o ritmo/tempo das mensagens, as quais dificultam entendimento da comunicação. Porsua vez, Palloff e Pratt chegam a conclusão de que quando surge algum desentendimentosobre determinada concepção, a mediação competente faz-se necessária para evitar queos membros da comunidade afastem-se, a fim de não participarem deste momento do con-flito, bem como que o grupo não consiga ultrapassar as dificuldades, a ponto de chegar aoconsenso.

3.5 COMENTÁRIOS FINAIS

A atuação dos usuários na Internet populariza-se a cada dia, percebe-se os avançosdas possibilidades de interferência no funcionamento do ciberespaço, fazendo com que oser humano se aproprie da tecnologia, utilizando-a para suprir suas necessidades especí-ficas. Mesmo que o ciberespaço continue povoado por grandes corporações que buscamgoverná-lo, as possibilidades de fuga e participação maior dos usuários estão sendo cadadia mais aprovadas e essas corporações perdem a cada instante o controle da atuaçãodesses no ciberespaço.

Por fim, retomando os conceitos estudados de Pierre Lévy que analisa esta nova con-juntura da Web, já fica comprovado que sua base gira em torno da cooperação, o quetorna plausível a idéia deste autor a respeito da formação de inteligência coletiva no cibe-respaço. Nesse contexto, inclusive, merece destaque a formação de comunidades virtuaisenvolvendo grupos de pessoas que se dedicam ao esforço de estudarem os recursos tec-nológicos, a fim de compreendê-los e dominá-los. Esses aficcionados por desvendarem ossegredos dos dispositivos cibernéticos acabaram por criar todo um ambiente de idéias ecomportamentos, a cultura hacker, que fazem parte hoje de vários elementos da Internet, eque é abordado detalhadamente no próximo capítulo.

82 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

4CULTURA HACKER E CRIMES DIGITAIS

Nesta época de crescente tecnologia e de tantas esperanças com a ci-bernética, sobretudo quando posta a serviço da sociedade, questiona-sea utilização do termo “hacker” veiculado nos meios de comunicação. Aolongo deste capítulo procura-se discutir sobre a cultura hacker, na buscade elucidar seu real significado, sem deixar de relacionar com a sua im-portância para o movimento software livre.

4.1 CULTURA E ÉTICA HACKER

Nos últimos anos, a mídia, impressa e televisiva principalmente, tem dado grande des-taque para a questão de segurança de informações em ambiente de rede. Assim sendo,tem-se tornado cada vez mais comum ler ou ver notícias sobre invasões de sistemas com-putacionais, fraudes eletrônicas e eventos similares. Essas notícias acabam por trazer àrealidade cotidiana a questão da invasão digital, geralmente atribuída a um “hacker”.

Em senso comum, o termo hacker é entendido como sendo o especialista em com-putação (um “fanático” pela máquina) que gosta de mostrar seu poder de conhecimentoinvadindo sistemas informatizados alheios. Se o interesse é ser mais formal, é possívelperceber que essa definição não é tida como adequada pelos técnicos da área de compu-tação e muito menos pelos próprios hackers.

Eric S. Raymond, um dos líderes do movimento hacker, é autor do dicionário HackerHowto (RAYMOND, 2001). Ele também é o atual responsável pelo “Jargon File Resour-ces” em (RAYMOND, 2003), um dicionário sobre termos e jargões do vocabulário hacker.Esse dicionário, também conhecido como “Jargon”, possui uma versão impressa, editadapela MIT Press, denominada “The New Hacker ’s Dictionary”. O Jargon File (RAYMAND,2003) apresenta várias definições ao termo hacker, a maioria deles tendo a ver com aptidãotécnica e um prazer em resolver problemas e superar limites.

84 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Conforme comentado em (LORENZZONI, 2002), em toda sociedade existem preceitoséticos e morais, o que também é válido no ciberespaço e na “cultura hacker”. Para StepnenLevy (LEVY, 1999), a ética tradicional direcionada ao hacker das décadas de 70 e 80 têmos seguintes preceitos:

Acesso irrestrito a computadores: qualquer meio que seja capaz de ensinar algo sobrecomo o mundo funciona - deve ser ilimitado e total para seu trabalho. Caso o hackerprecise enviar várias mensagens para celulares sem pagar, ao invés de entrar váriasvezes na interface web e enviar uma mensagem por vez, ele, tipicamente descobrirácomo a interface web funciona e fará um programa automático para o envio de men-sagens de forma mais ágil e com menos desperdício de tempo.

Toda informação deve ser livre: apesar da sociedade do consumo propor que tudo devaser empacotado e vendido, inclusive a informação. Para os hackers a informação,produto das mentes das pessoas, não deveria ser comercializada, uma vez que seriadifícil vender o cérebro de uma pessoa.

Desacredita a autoridade e promove a descentralização: um hacker não aceita os ar-gumentos de autoridade e não acredita na centralização como forma ideal de coorde-nar esforços. Assim, se um economista disser a um hacker para investir em determi-nada ação, ele não aceitaria, mas faria a pergunta: “por quê?”.

Hacker deve ser julgado segundo seus atos, não por critérios acadêmicos e outros. AMeritocracia tem como base que se alguém é bom mesmo, ele faz o que sabe fazere os demais o terão em alta conta. Certificados não querem dizer nada sobre compe-tência.

Porém, Lorezzoni afirma em seu texto (LORENZZONI, 2002) que na década de 90 no-vos preceitos éticos foram incluídos e formaram um novo código analizado por Steve Miz-rach no documento Is There a Hacker Ethic for 90s Hacker? (MIZRACH, 1997). Esse novocódigo é bastante complexo, sendo que destaca como mais importante dos novos preceitoso chamado “Primum nom Nocere”, que foi retirado da ética de Hipócrates (o pai da medi-cina), e que significa “Primeiramente não Cause Nenhum Mal.” Esse preceito explica queser um hacker é tornar-se um agente na busca do conhecimento para a própria iluminação.Não há nenhuma necessidade intrínseca de destruir. Sendo esse o principal preceito quesepara o hacker do cracker. Ambos possuem conhecimentos avançados sobre informá-tica e programação1, mas enquanto o primeiro utiliza seus conhecimentos para alcançara própria iluminação, o segundo está mais interessado em mostrar-se para os outros, ouconseguir vantagens financeiras.

1Na verdade, a maioria dos crackers acaba não precisando de conhecimentos tão avançados assim, poisa atividade destrutiva é sempre mais simples e fácil do que a atividade construtiva e criacional.

Cultura Hacker e Crimes Digitais 85

Ainda segundo Pablo Lorezzoni existem três vertentes para origem das culturas hac-kers, sendo que muitos hackers atuais guardam características de uma ou outra dessasvertentes mais predominantes. Porém, a maioria dos hackers originam-se a partir da mis-tura que ocorreu ao longo da história da computação. As três vertentes que deram origemao hacker de hoje são os hobistas, os acadêmicos e os networkers.

Os hobistas originaram-se dos rádios amadores, na década de 20 e em anos posterio-res. Nesse período muitos equipamentos eletrônicos eram vendidos em kits, o que desper-tou o desejo de conhecimento de eletrônica. Posteriormente, os primeiros computadoresque ofereciam recursos gráficos, como os Commodore-64, tornaram-se as chaves mestrapara a atuação dos hobistas. As atividades que desenvolviam consistia em quebrar a pro-teção de jogos eletrônicos vendidos para esses computadores. O reconhecimento dessesadvinheram da capacidade de alterar programas (hackear2) para incluir uma tela de aber-tura que mencionasse o seu nome/nick em geral com explosões e cores psicodélicas. OC-64 tinha apenas 64 kb de memória, por isso, essas “introduções” aos jogos deveriam serpequenas e eram, quase sempre, codificadas em linguagem de máquina, ou em Assembly.Atualmente, a herança dessa época persiste na famosa “demo fests” em que pequenosprogramas nesse estilo (os demos) são apresentados e competem por popularidade.

O mundo da vertente acadêmica surgiu no MIT (Massachussetts Institute of Tecnology),na década de 60. Em sua maioria essa vertente era formada por estudantes de Física eMatemática que despertavam seus interesses nas novas máquinas de calcular e passavamàs noites (horários que as máquinas estavam desocupadas) descobrindo cada canto e cadacurva da intrincada arquitetura dos computadores primitivos. Mais tarde, universidadescomo Stanford (SRI) e Carnegie Mellon (CMU) entraram na computação, com isso fundaramsuas próprias culturas que permaneceram separadas por muitos anos, até que ocorressesua fundição.

Já os networkers em príncipio dedicaram-se ao phreack. Por phreack entende-se aprática de burlar sistemas de segurança das redes telefônicas para utilizar-se delas semque houvesse custo. Entre os hackers que se destacaram nessa cultura encontram-se: oCap’n Crunch. Sua importância foi destacada pela descoberta do tom de um apito quevinha em uma caixa de cereal com o mesmo nome (Cap’n Crunch) e que permitia o acessoa rede internacional de telefonia sem pagar. Outro hacker destacado era Joe Engressia,que era cego e podia assobiar os tons de controle na freqüência correta.

No percurso histórico da cultura hacker destacam-se os inúmeros benefícios que suasdiversas vertentes proporcionaram, desde o surgimento de uma cultura compartilhada de

2Note que este grupo já usa o termo hackear com um significado diferente dos hackers originais. Para EricRaymond, Richard Stallman, hackear é trabalhar na solução de um problema computacional.

86 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

programadores experts e os magos da conectividade, cujo passados históricos cruzam-sehá décadas, com os primeiros computadores de tempo compartilhado e as primeiras expe-riências com a ARPANET. Essa cultura de hacker praticamente construiu a Internet. Alémdisso, os hackers fizeram o sistema operacional Unix, construíram a USENET e fizerama World Wide Web funcionar de forma a priorizar a liberdade de acesso a informações ecomunicação.

Para Eric Raymond (RAYMOND, 2006), o início dessas culturas hackers deu-se em1961 quando a Universidade de Massachusetts adquiriu o primeiro computador modeloPDP-1. A comissão de energia e sinalização do clube de estrada de ferro do MIT (Signaland Power Comittee) diante desse fato, adotou o PDP-1 como instrumento para desenvol-vimento de ferramentas de programação e de programas, criando gírias de informática euma cultura particular reconhecida até os dias de hoje. De acordo com esse autor, o termohacker foi utilizado pela primeira vez nessa universidade.

Observe que a palavra hacker não é usada apenas para designar o hacker-de-software.Há pessoas que aplicam a atitude hacker em outras áreas, como eletrônica ou música - naverdade é possível encontrá-la nos níveis mais altos de qualquer ciência ou arte. Segundo(RAYMOND, 2006), hackers de software reconhecem essas semelhanças e chamam dehackers esses outros abnegados, alegando que a natureza hacker é independente da mídiaparticular em que o hacker trabalha.

Ainda para (RAYMOND, 2006), algumas pessoas autodenominam-se hacker sem entre-tanto serem. Existem aqueles que, por exemplo, invadem sistemas para fraudarem códigose alterarem informações em computadores e sistemas informáticos. As pessoas envolvi-das com o mundo cibernético, das redes de computadores e de comunicação, costumamchamar essas pessoas de “crackers”. Assim, conforme Raymond, é lamentável o fato demuitos jornalistas e escritores de alta tecnologia usarem, erroneamente, a palavra “hacker”para descrever crakers. Para ele, a diferença básica é esta: hackers constroem coisas,crackers destroem-nas.

Outra observação a ser feita é que o hacker e o cracker são vistos como gênios dainformática. Mas, contrariamente ao mito popular, não é necessário ser um nerd3, paraser um hacker. Entretanto, isso ajuda muito, e muitos hackers são de fato nerds. Serum proscrito social o ajuda a manter-se concentrado nos projetos realmente importantes,como pensar e “hackear”. Por isso, muitos hackers adotaram o rótulo “nerd”, e até mesmousam o termo (mais duro) “geek”4, como um símbolo de orgulho – é um modo de declarar

3Nerd: viciado em estudo, pessoa geralmente anti-social, o popular “cdf”.4Geek: viciado em tecnologia, pessoa que entende de computadores e passa horas na Internet.

Cultura Hacker e Crimes Digitais 87

sua independência de expectativas sociais normais. A The Geek Page5 apresenta umadiscussão extensiva sobre o assunto.

Em linhas gerais, hackers resolvem problemas e acreditam na liberdade e na ajudamútua voluntária. Para ser aceito como um hacker, é necessário comportar-se como tal.Segundo (RAYMOND, 2006), ser hacker pressupõe, entre outras, as seguintes ações oucomportamentos: escrever programas open-source, depurar programas, editar manuais edocumentos FAQ na Web. Enfim, ser hacker implica realmente acreditar nessa atitude.

É importante destacar que dentro da comunidade software livre veicula uma visão ro-mântica do hacker. Nessa visão, o hacker é reconhecido como uma pessoa bondosa sem-pre disposta a contribuir com a comunidade, especialmente a comunidade de software livre.Ainda nessa compreensão, o hacker só invade um sistema para verificar suas falhas de se-gurança e avisar o administrador daquela rede. Logicamente, esta é uma visão incorreta eromântica do contexto da cultura hacker, uma vez que o hacker não é, em geral, motivadopor preceitos morais (sejam eles bons ou ruins), mas sim por um forte instinto de curiosi-dade e vontade de vencer desafios. Essa visão dificulta compreender o real alcance dacultura hacker e o impacto da mesma dentro da comunidade software livre, pois simplificapor demais a questão. Obviamente, a comunidade deve muito há vários hackers, entre elesStallman, Eric Raymond e Linus Torvalds, mas não se deve, com isso, chegar ao ponto quese um indivíduo é hacker ele vai contribuir com o software livre. Muito menos se deve fazeruma proposição que “hacker é do bem e cracker é do mal”, desvirtuando o real significadodo que é ser hacker ou cracker. Por sua vez, existem diversas questões éticas, e até mesmomorais, dentro da cultura hacker, mas elas transcendem a uma discussão pura e simplessobre o bem × mal.

4.2 PRIVACIDADE, LEIS E CRIMES NO CIBERESPAÇO

Com as transformações tecnológicas impostas à sociedade como um todo, estas vêmexercendo um papel fundamental nos relacionamentos humanos, pois parte de seu trabalhofoi absorvido pelos mecanismos digitais, ocorrendo a automatização de tarefas em váriossetores. Essa explosão tecnológica caminha com a evolução dos meios de comunicação,sendo possível atualmente a abertura de fronteiras através da transmissão de dados de umcomputador para o outro, demostrando sua força maior na globalização da economia e naInternet.

Desta forma, apesar desse fenômeno ter facilitado a vida das pessoas em diversos as-pectos, contribui também para o aparecimento de uma nova modalidade de crime: o crime

5http://samsara.circus.com/~omni/geek.html.

88 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

digital. Esse tipo de delito causa prejuízos enormes às empresas e à sociedade em geral.Segundo o CERT (Computer Emergency Response Team6), órgão responsável em apuraros incidentes na Internet, os crimes digitais nos próximos anos tendem a aumentar verti-ginosamente, sendo de suma importância, a elaboração de uma norma realmente eficazpara o combate desse novo modelo de criminalidade.

Na realidade, a criminalidade relacionada ao meio digital é novidade em todo o mundo,com o agravante de que policiais e legisladores passam a atuar em um campo em quepouco dominam. Porém, a legislação e a criação de uma norma eficaz é certamente algomuito complexo. A criação de uma norma eficaz é certamente um desafio para as autori-dades governamentais e a sociedade civil organizada. Isso se dá principalmente devido avários fatores, como: aplicação da lei no âmbito internacional e definição clara do que é ocrime digital. Por exemplo, nos Estados Unidos, com o advento da Internet, novas condu-tas ainda atípicas surgem a todo o instante. Nesse país, o CFAA7 (Computer Fraud andAbuse Act) contém a legislação criminal e os dispositivos para o combate ao acesso crimi-noso em computador por via interna ou externa (anti-hacking provision). Segundo (ELIAS,2000), o CFAA em 1984 caracterizou o acesso a computadores sem autorização e usosilegais das informações obtidas como crime. Este foi o primeiro passo na luta contra crimescibernéticos nos Estados Unidos.

Por apresentar diversas lacunas (falhas) e críticas ao seu conteúdo limitado, o CFAArecebeu emendas em seu texto legal, aumentando assim o seu escopo de atuação. Desdeentão, é crime naquele país a conduta de transmitir programas diretamente ou indireta-mente com o propósito de causar danos (vírus, trojans, etc). Ficou famoso o caso UnitedStation versus Morris: um estudante do primeiro ano do curso de pós-graduação da CornellUniversity, Robert Tappan Morris, que desenvolveu um pequeno programa Sworm, um víruscomputacional capaz de causar danos a sistemas computacionais de terceiros. SegundoMorris seu programa não tinha intenção maléfica, servindo apenas para testar a capaci-dade de multiplicação do próprio programa. A solução a esse caso foi demorada, causandodiversos prejuízos nos EUA. No final do processo, Morris foi condenado à prisão.

Enquanto isso, na China as normas são extremamente rígidas para combater atitudesde hackers e crackers. Por exemplo, em 1992, a Associação Press divulgou um artigo envol-vendo um chinês chamado Shi Biao. Biao invadiu um banco onde roubou 120 mil dólares.Ele foi preso e julgado. Sua sentença: Morte. O senhor Biao foi executado. Na Finlândia,a preocupação recai principalmente sobre o vírus de computador. Apesar de alguns ca-sos acontecerem acidentalmente, nesse país é crime o fato de alguém trazer um disquetecontaminado e não utilizar um antivírus, contaminando assim uma rede e causando des-

6http://www.cert.org.7http://www.panix.com/~eck/computer-fraud-act.html.

Cultura Hacker e Crimes Digitais 89

truição de dados. É considerado crime também um arquivo contaminado pego em um sitevia download.

Em Israel existe uma conduta bem diferente do resto do mundo no que se refere àatividade hacking e cracking. O governo, em vez de punir, aproveita a inteligência dessesciberpersonagens, contratando-os para trabalhar em Agências de Informações e SegurançaNacional. A partir daí, hackers e crackers compartilham seus conhecimentos em benefíciosda sociedade para proteger os dados de seu país. Tais personagens passam a ser umaespécie de consultor de segurança, não praticando mais atitudes grosseiras e auxiliando ogoverno a proteger suas informações contra espionagem cibernética de outros países8.

No Brasil, uma questão amplamente discutida atualmente diz respeito a indefinição deatuação jurídica de um criminoso digital e as dificuldades de punição pelos seus atos. OCódigo Penal Brasileiro foi criado em 1940, sendo que o legislador naquela época não podiaprever o avanço da tecnologia e seu emprego maléfico na sociedade atual. É importanteressaltar que tal código vem sendo aplicado até os dias de hoje. Com isso, a única alterna-tiva encontrada por estudiosos foi a aplicação de um artigo encontrado na lei de Telemática.Embora seja grande o esforço em punir estes agentes, no caso concreto o resultado é oarquivamento do processo ou absolvição do réu por falta de enquadramento jurídico (daatipicidade do crime).

Ilustrando a defasagem no campo da legislação brasileira, citamos o exemplo incoerenteno combate à pirataria de CDs (software, musicais), enquanto no ciberespaço a distribuiçãodos referidos programas e músicas é realizada de forma muito mais moderna, barata, eilícita, e ilimitada através das mídias digitais (exemplos: formatos MP3, OGG, MPEG eoutros formatos de compressão de dados). Para evitar uma onda de impunidade para essetipo de delito, vários estudiosos e autoridades governamentais não medem esforços paraelaborarem diversos projetos de lei.

O combate à criminalidade na Internet encontra diversos problemas não somente àslacunas legislativas, mas também na sua aplicação no caso concreto. Partindo deste con-texto, podemos dizer juridicamente, que existem dois tipos de crimes na Internet:

Crimes de computador: são aqueles crimes, cujo o cibercriminoso modifica, copia, apaga,intercepta dados, bem como invade e-mails, Home-pages e sistemas de Redes. Nessacategoria estão os Trojans, War-dialers, ataques de negação de serviços (Denial ofService Attacks), ataque de força bruta ( Brute Force Attacks), sniffers, estouro debuffers ( Buffer Overflows), etc.

8Deve-se ressaltar que a maioria dos crackers não consegue se adaptar a esta nova situação. Eles temdificuldade em trabalhar em equipe e em se focar em objetivos concretos quando surgem dificuldades.

90 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Crimes no computador: são aqueles nas quais o computador é usado somente como“modus operandi” do crime. Por exemplo: Envia e-mail ameaçando B de morte. Ocódigo penal em seu art.147 diz: ameaçar alguém, por palavra, escrita ou gesto, ouqualquer outro meio simbólico, de causar-lhe mal injusto ou grave. Pena: detenção de1 a 6 meses ou multa. Conforme o dispositivo penal, o meio simbólico poderia carac-terizar o e-mail. Nesse caso, o requisito principal para que o delito se efetive, é quea pessoa se sinta ameaçada, não importando a forma pela qual a pessoa recebeu aameaça. O mesmo exemplo vale para a exposição de material inadequado como porexemplo, a pedofilia.

A questão da criminalidade de computador perpassa assuntos complexos, como a se-gurança e a privacidade. Esses dois temas são estudados há tempos. Em 1939, a Uni-versidade de Cambridge através dos pesquisadores Kendall e Smith tratavam da pesquisade combinação aleatória de número. Em 1955, vários pesquisadores através do projeto“A Million random digits with 100,000 normal deviates” encabeçado pela Rand Corporationdesenvolveram estudos sobre criptografia9.

Ao longo dos anos, a criptografia na informática vem se desenvolvendo. Sua impor-tância reside no fato dela permitir a privacidade e a segurança do tráfego de informaçõesde forma eletrônica, principalmente através da Internet. Por outro lado é cada vez maiora preocupação do governo americano e outros governos, com o uso da criptografia porcriminosos, impedindo o acesso ao conteúdo criptografado de alguma mensagem.

Discussões em torno da viabilidade e da validade de documentos judiciais e extraju-diciais transmitidos via Internet, com a utilização da criptografia (assinatura digital) podemeliminar ou pelo menos dificultar os crimes de computador, sendo possível imaginar quenum futuro não muito distante o conceito de documento tornarão freqüentes a existência dedocumentos juridicamente válidos.

O problema principal está em combater crimes de computador no âmbito internacio-nal, já que nem sempre é possível punir o responsável, devido a diversos fatores, entreeles o anonimato e a estrutura virtual. Em primeiro lugar, a rede não respeita fronteirasentre os países, o que dificulta administrar diferenças culturais ou aplicar leis nacionais.Em segundo, a comunicação tem natureza mista, entre o público e o privado. A troca demensagens de correio eletrônico é particular como um telefonema, uma página na Web épública como um programa de TV.

9Conjunto de princípios e técnicas de matemática utilizando algoritmos e funções poderosas capazes dedecodificar uma mensagem, baseadas em grandes números primos com centenas de dígitos e outras técnicasde escrever em cifra. Maiores detalhes no módulo (UCHÔA, 2005).

Cultura Hacker e Crimes Digitais 91

Analisando o exemplo acima, chega-se à conclusão de que faltam limites geográficosestabelecidos na jurisdição, gerando assim problemas relacionados à soberania nacional,como nos casos em que dois países ou mais estão envolvidos. Nesse contexto, aparece oproblema relacionado ao princípio da territoriedade, ou seja, definir se a jurisdição encontra-se no país de onde partiram os dados, onde estes dados estão armazenados ou onde odano foi causado.

Como conseqüência, é difícil rastrear e prender o infrator em flagrante, pois o resultadovem muito depois do início da execução, sendo que a vítima só toma conhecimento do fatoapós longo período. Já no âmbito nacional, é possível combatermos atitudes grosseiras,entretanto o país carece de uma legislação efetiva que defina os crimes cibernéticos.

4.3 COMENTÁRIOS FINAIS

Com o estudo da cibercultura e do ciberespaço fica evidente que o grande impactoda Internet não vem pelas suas inovações tecnológicas, mas pelas novas possibilidadesque elas abrem para a interação entre as pessoas e principalmente para a participação doscidadãos nesse espaço virtual . O hacker não atua apenas na reflexão do que pode ser feitocom a tecnologia, mas também em como as vidas das pessoas podem ser afetadas pelastecnologias, e desta reflexão que surge o Movimento do Software Livre, tema dos próximoscapítulos. O movimento do Software Livre almeja o uso responsável da tecnologia, comoum instrumento de libertação do conhecimento e das sociedades.

92 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

5HISTÓRIA E FILOSOFIA DO SOFTWARE

LIVRE

Este capítulo aborda a história do nascimento e evolução do softwarelivre e código aberto, destacando os principais atores e suas comuni-dades; bem como os mecanismos da metodologia de desenvolvimentosoftware livre e a formação de projetos bem sucedidos.

5.1 SOFTWARE LIVRE E SOFTWARE DE CÓDIGO ABERTO

Nos últimos vinte anos, tem havido uma mudança de enfoque no uso da informática: oscomputadores pessoais deixaram de ser o centro das atenções, cedendo espaço para osambientes de redes, em especial à Internet. A Internet pode ser considerada hoje como ummeio de comunicação com poder de influência comparável à televisão e ao rádio. O fatoé que, graças à Internet, os programas proprietários têm perdido espaço para uma novaforma de produção de programas para computador: o software livre.

Cada vez mais, os programas de código aberto, como também é conhecido o softwarelivre são usados pelas empresas e por usuários de informática. O público em geral associaesta categoria de programas a dois grandes nomes:

1. FSF (Free Software Foundation)1 que é responsável pelo Projeto GNU, um con-junto de programas gratuitos (incluindo-se desde compiladores até ambientes grá-ficos);

2. Linux2, um sistema operacional Unix, multiusuário, multitarefa e multiprocessado,de livre distribuição, disponível para equipamentos x86 (Intel e compatíveis), Moto-rola 68K, Digital Alpha, Sparc, Mips e PowerPC, entre outros.

1http://www.fsf.org/.2http://kernel.org/.

94 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Essas não são as únicas entidades que representam ou desenvolvem software livreou programas de código aberto. Não podem ser esquecidos, só para citar alguns exem-plos importantes, a Apache Software Foundation3, a Mozilla Foundation4, o FreeBSD5,OpenOffice6, a OSI7 e outros. Essas organizações e projetos são independentes, tantodo Linux quando da FSF. Infelizmente, é bastante comum encontrar artigos sobre o temacom erros técnicos graves sobre o assunto. Dessa forma, é importante saber o que real-mente constitui o software livre, para não cair em falhas graves ao tentar defendê-lo.

Pode-se dizer, de forma ampla, que o movimento Software Livre tem raízes históricasno século 18, com o surgimento do direito autoral, e no século 19, com a evolução doconceito de propriedade intelectual, até chegar ao de patente. Isso porque, como seráverificado adiante, o software livre utiliza-se do aparato legal sobre direitos autorais paragarantir a liberdade de distribuição e transformação de conhecimento. Nesse contexto, aelaboração de um documento denominado “Manifesto GNU” (STALLMAN, 2002a) pode serconsiderada como um dos principais marcos históricos do surgimento de uma nova formade criação de software. Nesse documento estavam descritas as razões do movimentoSoftware Livre e propunha a criação de um sistema operacional livre, denominado GNU.Conforme (STALLMAN, 1999):

Eu escolhi fazer o sistema compatível com Unix, então ele deveria ser portável eusuários Unix poderiam facilmente mover-se para ele. O nome GNU foi escolhidoseguindo uma tradição hacker, como um acrônimo recursivo para “GNU Não éUnix”8

Como é sabido a exploração comercial do software de computador geralmente é ba-seada na legislação de copyright. O copyright foi criado para proteger os interesses deautores, ao mesmo tempo que garante a continuidade da produção literária diante do surgi-mento da imprensa, que tornava fácil a duplicação de qualquer texto sem o conhecimentoe autorização do seu autor (RAYMOND, 1999a). Segundo a lei de copyright9, o autor poderestringir o uso de suas obras, e qualquer atividade não explicitamente autorizada por eledeve ser considerada ilícita. Desta forma, copiar um livro, trechos de música, programas(em vez de comprar um exemplar) ou copiar trechos, sem indicar a origem e dar os devidoscréditos ao autor, referenciando-o, constituem crime na legislação de copyright.

3http://apache.org.4http://mozilla.org.5http://www.freebsd.org.6http://www.openoffice.org.7site da OSI, www.opensource.org.8GNU is Not Unix?, em Inglês.9Copyright também pode ser compreendido como “direito de cópia”.

História e Filosofia do Software Livre 95

Um exemplo de uso do copyright na área computacional é o software proprietário, atra-vés de suas licenças são limitadas as atividades que os usuários podem realizar com umacópia de um software. É bastante normal que esse uso seja limitado pela quantidade deindivíduos que operam o software, ou a quantidade de computadores onde o produto podeser instalado, senão o volume de dados que pode ser manipulado pelo software. A fim deque o usuário que adquirir um software saiba quais direitos lhe é reservado sobre seu uso,ele precisa conhecer a licença de uso do mesmo. Caso o uso do software esteja alheio àscondições estipuladas em seu contrato de licença, como por exemplo a prática de distribui-ção de versões, isto vem a constituir crime de pirataria de software.

Em um programa que é considerado como software livre ou software de código aberto,o usuário geralmente tem a permissão explícita para o uso ilimitado e irrestrito desses pro-gramas, independente do contexto. Dentre as permissões explícitas costumam constartambém que esses programas podem ser modificados pelos usuários, incluindo distribuirestas alterações a terceiros, mesmo que outra pessoa utilize-o para construir um novo pro-grama que futuramente venha a competir diretamente com o programa original. Dessaforma, os desenvolvedores de software garantem o acesso a formação do saber em tornodestes produtos, sem importar com o que aconteça no futuro.

Analisando as possibilidades de uso de um software, conforme os termos estipuladospor sua licença de uso, pode-se dizer que o software livre é exatamente a mesma coisaque um software código aberto. Em geral, o uso de um destes dois termos indica umavisão ideológica / pragmática bastante diferenciada pelo seu desenvolvedor, além de obje-tivos bastante diferentes em relação ao impacto do produto na sociedade em geral e emparticular, em sua comunidade de usuários. A expressão “software livre” é defendida pelaapresentada FSF e o termo “software código aberto”, pela Open Source Initiative (OSI) 10).Nesse contexto, a Figura 5.1 apresenta a visão da FSF sobre as categorias de software deacordo com a licença de uso.

Vários fatos importantes sobre o software livre são evidenciados na Figura 5.1. Emum primeiro momento, há que se perceber uma grande sobreposição entre o MovimentoSoftware Livre (defendido pela FSF) e o Movimento Código Aberto (defendido pela OSI).De uma forma sintética, em geral esses dois movimentos possuem grande sobreposição,diferenciando-se em questões ideológicas. Enquanto para a FSF, há uma luta pela liber-dade de conhecimento, não apenas em termos de software, a OSI está preocupada comaspectos práticos de desenvolvimento de software. Para a FSF, o software livre representauma oportunidade de democratização e disseminação do conhecimento. Já para a OSI, osoftware de código aberto possibilita uma maior auditoria e, portanto, o desenvolvimento deaplicativos mais seguros e de maior qualidade.

10http://www.opensource.org/.

96 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Figura 5.1: Categorias de Software – Adaptado de (FREE SOFTWARE FOUNDATION, 2002)

É importante notar que, em inglês, os dois termos são ambíguos, o que acaba por criar anecessidade de esclarecimento. Em inglês, o termo “free” possui dois significados: ‘grátis’e ‘livre’, donde o fato de sempre comentar que software livre equivale à liberdade de ex-pressão e não à cerveja grátis11. Nesse sentido, é importante destacar na Figura 5.1, queexistem diversos aplicativos proprietários gratuitos, como o Acrobat Reader, e que aplicati-vos de software livre podem ser vendidos. A preocupação maior da FSF, como comentado,é com a liberdade de conhecimento, ou seja: dado que o usuário possa ter acesso aocódigo do programa de alguma forma pública, nada impede a venda de software livre.

Esse é o mecanismo que garante, por exemplo, que as distribuições possam arrecadarfundos com a venda de CD: a partir do momento que o código esteja disponível, é possívelfazer comércio com software livre, de forma direta (venda do mesmo em diversos suportesfísicos, etc.) ou indireta (venda de manuais, suporte técnico, etc.). A obrigatoriedade éque se alguém quiser ter acesso ao código-fonte, ele esteja disponível para download, oualguma forma equivalente. Dessa forma, cabe destacar que o termo “Free Software”, navisão da FSF, não se equivale a software gratuito. Mas ainda, é possível achar programas

11Free software ≡ free speech 6≡ free beer.

História e Filosofia do Software Livre 97

proprietários na web distribuídos gratuitamente e que se intitulam free software, quandouma melhor denominação seria freeware.

Por outro lado, a OSI, dirigida por Eric Raymond, autor do clássico “A Catedral e o Ba-zar” (RAYMOND, 1999a), irá preferir o termo “Open Source”, para dirigir-se aos aplicativosem que o usuário tenha acesso ao código e possa modificá-lo e distribui-lo. A visão dessegrupo é mais pragmática do que a da FSF e objetiva principalmente a qualidade de software.Nesse modelo, um software que possua vários usuários tende a ter vários olhos em seu có-digo, permitindo uma maior depuração de erros, e aumento das melhorias do mesmo. Caberessaltar que o termo “Código Aberto” muitas vezes é utilizado (tanto em língua portuguesacomo em língua inglesa) para designar aplicativos a que se tenha acesso ao código, massem poder de modificação ou distribuição, sendo, portanto, software proprietário.

Em português, o termo “software livre” não possui as ambigüidades inatas da línguainglesa e tem sido o mais adotado pela maioria das pessoas envolvidas com Linux no Brasil,uma vez que o termo “código aberto” é ambíguo nas duas línguas. Este texto irá, portanto,preferir usar “software livre”, sempre que não houver necessidade de distinguir entre osmovimentos dirigidos pela FSF e pela OSI. Cabe destacar ainda que está tomando forçauma denominação mais interessante aos usuários, especialmente no mercado corporativo.Essa denominação busca clarear as ambigüidades das duas denominações, adotando umaterminologia mais completa: FOSS (Free and Open Source Software), Software de CódigoLivre e Aberto. Dessa forma, fica caracterizado a necessidade de liberdade (de alteração edistribuição) ao código, disponível (aberto) ao usuário.

Ainda na Figura 5.1, cabe destacar o conceito de copyleft, defendido por Stallman.Como comentado, o Movimento Software Livre surge no mercado de maneira contrária aosprogramas proprietários. Isto porque o software livre não é diretamente comercializadocomo produto. Além disso, a sua filosofia principal é a questão de liberdade de expres-são, dado que os usuários têm liberdade de executá-los, copiá-los, distribuí-los, estudá-los,modificá-los e aperfeiçoá-los. Pode-se dizer ainda que o software é livre quando garante as4 liberdades, destacados em (STALLMAN, 1999):

1. liberdade de executar o programa para qualquer propósito;2. liberdade de estudar como o programa funciona, e adaptá-lo às suas necessidade;3. liberdade de redistribuir cópias de forma a auxiliar alguém;4. liberdade de aperfeiçoar o programa e liberar os seus aperfeiçoamentos, de modo

que toda a comunidade se beneficie, entre outros.

Um programa é, portanto, considerado como software livre, se o usuário possui essasliberdades acima, sendo livre inclusive para redistribuir cópias, seja com ou sem modifica-ções, seja de graça ou cobrando uma taxa pela distribuição, para qualquer pessoa e em

98 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

qualquer lugar. A liberdade ainda inclui que não é necessário pedir ou pagar pela permis-são de tomar todas essas atitudes. Entretanto, Stallman ao criar a FSF percebeu que haviauma prática na indústria de software de apropriarem-se do código de aplicações de domíniopúblico fazerem alterações e não as devolverem para a comunidade. Além disso, o aplica-tivo desenvolvido, usando conhecimento público, era vendido como produto, tornando-seproprietário. O caso mais clássico é o do X11, gerenciador de janelas do UNIX, mas exis-tem vários outros, como por exemplo a biblioteca sockets do Windows, responsável pelacomunicação TCP/IP nesse SO, e que foi baseada em código BSD.

Dessa maneira, Stallman propôs o conceito de copyleft (deixe copiar) como um trocadi-lho com copyright (direito de cópia). Na verdade, esse trocadilho surgiu numa comunicaçãode e-mails entre Stallman e seu amigo, Don Hopkins, que disponibilizava um conjunto dejogo de palavras, com objetivos de diversão. Stallman percebeu o potencial da frase “copy-left: all rights reversed” (copyleft: todos os direitos revertidos). Com o copyleft, portanto,Stallman quiz manter os direitos autorais, mas garantir o retorno à comunidade. Ou seja,qualquer alteração no software que seja distribuída precisa disponibilizar o código aos inte-ressados. Esse conceito foi incorporado pela FSF na licença GPL, que será discutida emdetalhes no Capítulo 6.

5.2 EVOLUÇÃO HISTÓRICA DO SOFTWARE LIVRE

Ao invés de entrar direto no percurso histórico do software livre é interessante com-preender algumas questões gerais sobre os primórdios da computação, a fim de que oMovimento Software Livre seja melhor contextualizado desde esta época. No princípio, omercado comercial de informática era limitado à venda de computadores, seus periféricose os serviços de manutenção sobre ambos, que eram chamados de hardware (STALLMAN,2002b). Os programas de computadores ainda não eram comercializados, desta formatodo usuário de computador era por necessidade um programador, sendo obrigado a es-crever seu próprio software para que fossem atingidos os objetivos de aquisição e uso doequipamento.

Os fornecedores de computadores viam o software como um acessório necessário aofuncionamento do hardware, que não deveria ser encarada como uma fonte de receita.Assim, esses fabricantes davam abertura para que seus usuários utilizassem e modificas-sem livremente o software, por eles fornecidos nos computadores. Também era práticaincentivada pelos fabricantes a troca de idéias e mesmo de programas completos entre osusuários, uma vez que acreditavam que essa troca poderia impulsionar à aquisição de maiscomputadores. Afinal, só poderia usar o software escrito por um usuário quem adquirisse

História e Filosofia do Software Livre 99

outro computador igual ao dele. Sendo assim, a troca de programas e informações entreos usuários criava um feedback positivo, que por sua vez, beneficiava os fabricantes decomputadores.

Inclusive, foi neste contexto, de circulação livre de idéias e programas de computador,que surgiu a ARPANET (tratado no Capítulo 2) e a comunidade hacker (abordado no Capí-tulo 4). Como pode-se intuir as comunidades de pesquisadores e de hackers deram origemà Internet e também formaram as primeiras comunidades de Software Livre. Uma vez queexistia pequena quantidade de usuários de computadores, muitos anos passaram-se paraque houvesse um mercado consumidor com potencial suficiente para justificar o desenvol-vimento de software com o objetivo de venda para terceiros. Além da pequena quantidadede usuários de computadores, faltava tecnologia que permitisse a um programa ser escritooriginalmente em um modelo de computador e executar sem modificações (ou com poucasmodificações) em outro modelo de computador. Somente com o surgimento das primeiraslinguagens de programação de alto nível, como: FORTRAN, BASIC, COBOL e ALGOL,que houve condições para um programa ser escrito sem conhecimento profundo sobre asparticularidades de construção de um modelo específico de computador.

O relacionamento entre os fabricantes de hadware e periféricos com os usuários decomputadores somente mudaram quando os programas começaram a serem comerciali-zados de forma independente do hadware. A partir deste momento, o fornecedor não sebeneficiava mais da troca de informações e programas entre os usuários, como era feitoanteriormente. O que fez com que o fornecedor não tivesse interesse que estes usuáriosadquirissem as competências para escreverem seus próprios programas, uma vez que seriaameaça destes tornarem-se competidores potenciais. Assim, a comercialização dos pro-gramas passa a ser feita mediante o aceite por parte do usuário dos termos de restrições,os quais proibiam o usuário de reproduzir e distribuir o programa para terceiros. Tambémnão era permitido o estudo do funcionamento desse programa, através da engenharia re-versa do seu código interno; bem como o usuário não podia divulgar informações a respeitodo funcionamento e defeitos do software.

Os fabricantes de software comercializado começavam a entrar em choque com osusuários, uma vez que a venda de seu produto poderia ser ameaçada pela descontinuidade.As restrições supra expostas tolhiam as liberdades que antes eram atribuídas aos usuários,bem como grupos concentrados em universidades que também produziam software. Énesse contexto que surge o Movimento Software Livre, como uma forma de garantir essasliberdades, sem que sejam ameaçadas no futuro.

100 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Como marco histórico do surgimento do Movimento Software Livre, pode ser citadoa criação da Fundação Software Livre12. A FSF foi fundada por Stallman, que convidououtros programadores interessados em ajudá-lo na tarefa de desenvolver o sistema ope-racional GNU. Os programas GNU não seriam de domínio público, mas qualquer pessoapoderia usá-lo e redistribuí-lo, isto com a condição de que o mesmo não tentasse restringiro acesso ao código original, e às modificações feitas. O objetivo principal que levou RichardStallman a escrever o “Manifesto GNU” (STALLMAN, 2002a) foi o de pedir a participação eajuda da sociedade. Através desse documento Stallman começava a deixar claro os valo-res ideológico que essa nova geração de produtores de software defendiam, os quais têmcomo princípios fundamentais as quatros liberdades defendidas pela FSF, supra citadas naSeção 5.1 deste capítulo.

Cabe destacar novamente que, o valor ideológico de ser “livre” transcende a questãodo programa ser distribuído gratuitamente ou mediante custo, uma vez que com a redistri-buição de software GNU, a pessoa pode cobrar pelo ato de transferir uma cópia, ou podedar cópias de graça. Além disso, as pessoas que entram nesse novo valor de produção desoftware, não pensam necessariamente em fazer algo de graça, mas sim objetiva algumoutro proveito.

Outro pilar dessa ideologia criada com o Projeto GNU refere-se a valorização do es-pírito do trabalho colaborativo pela comunidade de informática. Esses ideais sustentamque dificilmente um programador, ou mesmo uma equipe de programadores, precisariamcriar sozinho, a partir do zero, todos os códigos necessários para o funcionamento de umprograma. A partir do pensamento do reaproveitamento, da reutilização de um trabalhoiniciado, da defesa dessa engenharia de software, tornou-se necessário a criação de umalicença específica para defender os direitos autorais do software.

Em 1984 Richard Stallman demitiu-se do MIT (Instituto de Tecnologia de Massachus-sets), com o objetivo de que não lhe fosse proibido doar o GNU. Após isso fundou a FSF einstituiu um novo modelo de proteção, a licença GNU GPL (General Public License)13, quepossibilita ao usuário uma série de liberdades, como cópia, compartilhamento e utilização,ao mesmo tempo que permite ao autor a manutenção de autoria de seu código-fonte.

Quando Stallman trabalhava no MIT, em 1971, com o grupo que usava software livre, ob-servou que as empresas de informática distribuiam software livre, os programadores eramlivres para cooperar entre si, e frequentemente faziam isso. Já no ano de 1980, a maioriados aplicativos eram proprietários, esse fato mostrou-lhe a necessidade de criar o ProjetoGNU, uma vez que haviam empresas que proibiam e impediam a cooperação entre osusuários.

12FSF - Free Software Foundation: http://www.fsf.org/ouhttp://www.gnu/org/.13A General Public License será apresentada em mais detalhes no Capítulo 6.

História e Filosofia do Software Livre 101

Partindo desses valores ideológicos, o Projeto GNU almejava criar um sistema operaci-onal livre, compatível com o UNIX. Aproximadamente nos anos 80, o projeto havia conse-guido escrever todos os componentes de software principais, com excessão do kernel. Em1991, Linus Torvalds desenvolveu o kernel do Linux, através de nova filosofia de engenhariade produção, em que o compartilhamento com colaboradores torna-se o motor da produ-ção. A combinação do Linux com o quase completo sistema GNU resultou em um sistemaoperacional completo: um sistema GNU baseado no Linux14.

É importante observar que o Projeto GNU não é limitado a sistemas operacionais.Desde o início, pretendeu fornecer uma gama completa de programas, tais como: editoresde texto (EMACS), Compiladores GCC (GNU Compila Collection), o Shell Bash (Boume-Again Shell), GNU File Utils (que fornece os comandos cp, ls e outros em Unix). Alémdisso, fazem parte do projeto GNU o ambiente gráfico GNOME e aplicativos como o Gimp,bem como ele foi o viabilizador da maior parte dos projetos software livre, inclusive o Linux.

Anterior ao surgimento dos movimentos que defendiam o software livre na década de80, já faziam parte do mercado de software uma outra concepção instituída na engenha-ria de produção. Nessa mesma época, o mundo de produção fechado era dominado pelaIBM. Nos anos 80 a Microsoft começa a liderar e consolidar sua filosofia de produção pro-prietária e fechada. Conforme já mencionado, na concepção de software proprietário, sãodefinidas as leis de propriedade intelectual que regulamentam os direitos autorais, ficandodeterminado que o usuário não pode copiar um programa sem a autorização (explícita ouimplícita) do proprietário. Nesse contexto, não existe a “liberdade” cultivada pela forma deprodução livre. Do contrário, a liberdade refere-se ao neoliberalismo, ou seja, aquela emque o Estado deve interferir o mínimo no comércio dos produtos, a não ser que seja paradefender os direitos de propriedade (os direitos autorais).

É possível afirmar que antes dos movimentos de software livre, a Microsoft detinha ahegemonia e atraia a maior atenção dos consumidores. A influência da Microsoft é tãogrande no mundo da comercialização de software, que essa empresa tem sido interrogadapelo poder judicial por impôr um monopólio. Nesse sentido, quando o Linux aparece comouma nova proposta para a engenharia de software, o mesmo abre possibilidades e opçõesaos programas proprietários.

5.3 OUTRAS INSTITUIÇÕES E MOVIMENTOS DE SOFTWARE LIVRE

Muitos outros projetos faziam parte do cenário nascente do software livre, apesar depoucos desses serem tão explicitamente ideológico como o projeto GNU de Stallman.

14Mais detalhes sobre a história do SO GNU/Linux ver Seção 5.4.

102 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Como uma das primeiras organização de software livre, que não possuia a visão ideoló-gica da FSF pode ser citado o Unix da Universidade de Berkeley15, mais conhecido comoBSD Unix. Essa distribuição BSD é uma reimplantação do sistema operacional Unix – atédepois do ano 1970 havia sido um projeto de pesquisa conveniada pela AT & T e a UCB.O grupo BSD não fez acordo político sobre a necessidade dos programadores trabalharemjuntos em compartilhamento uns com os outros. Mas esta idéia de trabalho compartilhadofoi praticada com talento e entusiasmo, pela coordenação em um esforço distribuido e coor-denado responsável por permitir a reescrita de bibliotecas, utilitários de sistema e o própriokernel, em sua maioria por voluntários.

No ano de 1998 foi fundada a The Open Source Iniciative (OSI)16, por uma coalisãode programadores, e o termo código aberto é usado como uma alternativa ao movimentode Software Livre difundida pela FSF. Os membros da OSI perceberam que a difusão do“livre” trazia uma certa confusão que atrapalhava o campo de marketing para ser lançadono mundo das corporações. Sendo assim arguiam que a própria filosofia que prega a morale os benefícios sociais de compartilhamento que fazem parte do Movimento Software Livrepoderiam não serem bem vistos no mercado.

Em linhas gerais, a OSI é uma instituição que visa o marketing para o software livre,mais do que uma desaprovação ideológica informal. Assim, a OSI ao eliminar a parte fi-losófica busca tornar visível a convicção de que o desenvolvedor de código concorda como processo de sua abertura na busca de melhoria, assim elimina a má compreensão e osconflitos gerados pela razão direta do termo “definição livre”. A OSI oferece para muitaspessoas o vocabulário que elas procuram para falar do software livre como uma metodo-logia de desenvolvimento e estratégia de negócio, eliminando os aspectos relacionados acrença moral. Pode-se dizer, de certa forma, que a disseminação dessa facção do Movi-mento do Software Livre impulsionou o aumento da comunidade e o seu reconhecimentopela mídia e aceitação pelas corporações.

5.4 O GNU/LINUX

O exemplo mais conhecido do software livre, o qual inclusive tem sido o motivo causa-dor da disseminação dessa nova forma de produção de software é certamente o sistemaoperacional GNU Linux. No ano de 1991, o sistema GNU estava em estágio avançado, fal-tava apenas um dos componentes mais importantes: o kernel do sistema. Neste momentocomeçou a desenvolver um kernel baseado em uma arquitetura chamado Hurd17. Porém, a

15University of California, Berkeley - UCB.16Site da OSI www.opensource.org.17http://www.debian.org/ports/hurd/index.pt.html.

História e Filosofia do Software Livre 103

arquitetura do Hurd, por ser de difícil depuração, apresentava problemas como instabilidadee baixa performace. Nesta mesma época, Linus Tovards deu início ao projeto de extendero Minix e implementar um kernel monolítico e mais completo. Há quem argumente que oLinux surgiu não apenas da competência técnica de Linus, mas de vários fatores juntos,como: pelo aproveitamento do HURD do GNU, as oportunidades deixadas pelo vácuo doBSD, em litígio na justiça com a AT&T, bem como a popularização da demanda de acessoà Internet por usuários leigos.

Dando continuidade, em 1991, o estudante filandês Linus Tovards deparou-se com oproblema de acessar remotamente o computador da Universidade Helsinki, onde estudara,a fim de fazer seus trabalhos no computador de sua residência. Ele procurou solucionaristo utilizando o Minix18, que não apresentou ser poderoso suficiente para se conectar a umsistema Unix remotamente.

Com isto, Linus começou a criar um emulador de terminais que funcionava por si só,sem necessitar de um sistema operacional. Esse emulador precisava de mais recursosa fim de cumprir os objetivos, o que impulcionou a criação de vários recursos típicos deum kernel de sistema operacional, com capacidade de lidar com tarefas simultâneas egerenciamento de espaço em disco rígido. Quando Linus percebeu que o desenvolvimentodo emulador estava com as funcionalidades de um sistema operacional, ele implementou aschamadas ao sistema Unix definidas pelo padrão POSIX19, a fim de rodar alguns programasoriginais do sistema operacional GNU, como Bash que era compilado em outro computadorexecutando o Minix.

Após chegar neste estágio, Linus disponibilizou os fontes no servidor FTP da Universi-dade Helsinky, a fim de que fosse utilizado por outros estudantes que estivessem passandopelas mesmas dificuldades em conseguir fazer conexão remota. Depois ele anunciou quehavia disponibilizado os fontes no grupo comp.os.unix da USENET, no ano de 1991.Com isto, a versão Linux 0.1 recebeu inúmeras contribuições de terceiros a ponto de tornarum programa auto-suficiente, não precisando mais do Minix para funcionar. Desta forma, aprimeira versão foi disponibilizada em 1991 (versão 0.02). Mais tarde, em 1994 finalmentefoi lançado o kernel versão 1.0. Entre as principais características do Linux, podem sercitadas com destaque:

Baixo custo: o Linux pode ser adquirido gratuitamente na Internet ou a baixo custo emlojas de informática ou mesmo em bancas de revistas.

18Foi criado por D. Tanembaum o sistema operacional acadêmico Minix clone do Unix.19POSIX é a família de normas relacionadas definidas pelo IEEE (1003) e ISO/IEC (9945). A normalização

das especificações POSIX surgiu de um projeto, desde 1985, cujo objetiva normalizar a API (Interface deProgramação de Aplicativos) para software SO do UNIX.

104 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Estabilidade: servidores usando Linux raramente necessitam de reinicializações por pro-blemas do sistema operacional ou aplicativos.

Segurança: erros de programação são corrigidos em tempo recorde quando comparadosaos sistemas operacionais proprietários.

Escalabilidade: pode ser configurado com facilidade para tirar o máximo de proveito demáquinas com vários processadores.

Portabilidade: apesar de ter sido criado para a arquitetura Intel, o Linux pode ser instaladoem várias plataformas de hardware, inclusive sistemas embutidos.

Posteriormente, o sistema Linux passou a ter a colaboração de grandes empresas,como: a IBM, a Sun Microsystems, a Hewlett-Packard e a Novell, ascendendo como princi-pal sistema operacional para servidores. Atualmente, oito dos dez serviços de hospedagensmais confiáveis da Internet utilizam o sistema Linux em seus servidores Web. Além disso,o Linux tornou-se o SO capaz de funcionar no maior número de arquiteturas computacio-nais possíveis. Sendo inclusive utilizado em aparelhos variados desde supercomputadores,celulares, bem como, vêm aumentando sua popularidade no mercado de computadorespessoais.

É importante destacar ainda que este sistema operacional Linux é distribuído sob GNUGeneral Public License, com isso é permitido o acesso ao seu código (open source). Apesarde baseado em versões do UNIX (os sistemas UNIX são comerciais), o Linux não utilizacódigo desse sistemas, evitando-se assim qualquer tipo de relacionamento que proporcionecusto ou quebra de patente.

No mercado de software existem várias distribuições20 Linux, inclusive as que são co-merciais, em que foram incorporadas funcionalidades específicas, como por exemplo, emoperações críticas. A primeira distribuição de Linux é a Softlanding Linux System (SLS)criada por Peter MacDonald em meados do ano 1992. A SLS foi o primeiro lançamentoa oferecer uma distribuição Linux abrangente, contendo mais que o kernel e utlitários bá-sicos, incluindo TCP/IP e o X Window System. Durante este ano, a SLS popularizou-see dominou o mercado até que os desenvolvedores tomaram uma decisão de mudar o for-mato de execução, o que não foi bem recebido pelos usuários. Após isto, Patrick Volkerdingdecidiu modificar o SLS ajustando e fazendo uma limpeza em seu código, posteriormentedenominou esse trabalho final na distribuição Slackware. Similarmente, a frustração de IanMurdock com o SLS fez ele criar o projeto Debian.

20Uma distribuição consiste em um conjunto de programas que são acrescidos ao kernel e uma filosofia deuso e administração.

História e Filosofia do Software Livre 105

Desta forma, o Slackware21 surgiu em abril de 1993. A Slackware é uma distribuiçãode Linux para uso geral e que tenta se aproximar ao máximo de outras versões de UNIX.Entretanto, usuários reclamam de sua forma de instalação de aplicativos no formato “tar.gz”.Em 1994, surge a distribuição RedHat22 com o formato RPM (RedHat Package Manager)para instalação de pacotes de software. As distribuições mais comuns são as criadas parapropósito geral, ocupam além dos computadores caseiros, os da indústria, comércio, afim de exercer a função de servidor de diversos serviços, como os de rede, arquivos eaplicações. Além de RedHat e Slackware podem ser citadas as seguintes distribuições:Ubuntu23, Fedora24, Debian25, Mandriva26 e Gentoo27.

Além das várias distribuições Linux existentes, também há uma grande diversidade deaplicativos para este sistema operacional. Para maiores detalhes sobre esses aplicativosde uso residencial e pessoal, e de empresas, ver o Apêndice A deste módulo.

5.5 COMUNIDADE SOFTWARE LIVRE

A grande questão que inspira uma curiosidade geral sobre o tema software livre não girasomente em torno do como ganhar dinheiro, mas principalmente como os projetos softwarelivre obtém sucesso. A discussão sobre esse tema é realmente muito complexa e pode-sedizer que conduzir um projeto software livre não é exatamente como conduzir um negócio.É possível intuir como seria difícil negociar constantemente a natureza de um produto, dadoque neste tipo de projeto o grupo de voluntários encontra-se geograficamente disperso, deforma que muitos desses voluntários nunca encontraram-se presencialmente. Um projetosoftware livre também foge do escopo de conduzir uma organização não-lucrativa comouma ONG. Talvez todas estas formas possam ser comparadas com o funcionamento de umprojeto software livre, mas não há igualdade, inclusive pode ser mesmo uma suposição aidéia de que um projeto software livre possa ser conduzido, o que é uma extrapolação.

Experiências tem mostrado que um projeto software livre pode ser iniciado e mesmo for-temente influenciado por membros interessados. Porém, seus recursos não podem se tor-nar propriedade de um único dono, muito menos esse projeto consegue ser desativado uni-lateralmente, uma vez que podem existir pessoas espalhadas em várias partes do mundocom interesse em continuar a desenvolvê-lo. O fato do poder em um projeto software livre

21http://www.slackware.com/.22http://www.redhat.com/.23http://www.ubuntu.com/.24http://fedoraproject.org/25http://www.debian.org/index.pt.html.26http://madriva.com27http://gentoo.org.

106 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

estar descentralizado, de forma que todos têm direito, ao mesmo tempo que não possuemdireito nenhum, traz uma dinâmica que causa um efeito interessante.

Em linhas gerais, mais do que a infraestrutura tecnologia em si, as relações sociais sãodeterminantes para o sucesso (ou o fracasso) de um projeto software livre. A complexidadena forma de organização dessas comunidades sugere a conclusão de que o software livre édesenvolvido sob processos muito mais profissionais e efetivos, o que resultam na geraçãode produtos de melhores qualidades do que em projetos de software proprietário.

5.5.1 Catedral e Bazar

Para explicar a incrível façanha que envolve o mundo de produção de software livre,Raymond em (RAYMOND, 1999a) caracterizou a produção de software em dois modelos: aCatedral e o Bazar. Por meios de verificações dos projetos de desenvolvimento do softwarelivre, ele extrai algumas lições para que um projeto baseado no modelo Bazar seja bemsucedido. A principal fonte de referência nessa produção acaba por ser Linus Tovards comsua invenção do modelo de desenvolvimento do Linux.

Ao longo do artigo, Raymond define como Catedral o modelo de produção de softwarefechado e com controle centralizado e estrito, com uma única liderança que determina osobjetivos e direcionamentos do projeto. Por outro lado, no modelo Bazar, o desenvolvimen-tos de programa delega o máximo de poderes aos programadores dando-lhe liberdade deabrir o código. Num projeto desse modelo, o desenvolvedor faz aquilo que deseja, issoimplica que há mais envolvimento no desenvolvimento do que no modelo Catedral, em queos programadores seguem um determinado projeto que lhe é delegado. Em (RAYMOND,1999a), o autor afirma que no modelo Bazar existe uma “anarquia”, que todos falam aomesmo tempo e cada um controla o seu próprio espaço.

Pode-se afirmar que o desenvolvimento de software proprietário ocorre por meio deuma organização de Catedral. Essa organização geralmente é formada por um grupo dedesenvolvedores, que trabalham no mesmo espaço físico e sob uma determinada gerência.Compete a esses desenvolvedores construir o programa, para isto precisam dedicar-se emtempo integral. Os projetos em que os mesmos trabalham não são escolhidos por eles,uma vez que é a gerência que determina qual tarefa devem fazer.

O texto de Raymond pode ser entendido como um modelo de produção, uma engenha-ria de software livre. Algumas das lições desse texto não foram mencionadas, pelo teordemasiado técnico, outras, entretanto, mostram as raízes do sucesso de vários projetos desoftware livre. Assim, esta seção apresentará uma análise de algumas das lições extraídasde (RAYMOND, 1999a).

História e Filosofia do Software Livre 107

1 - Todo bom trabalho de software começa colocando o dedo na ferida

de um programador.

Um projeto software livre é originado de forma diferente de um software proprietário,uma vez que a maioria desses projetos nascem da necessidade pessoal do autor, ou cor-poração, para criar o programa que atenda as suas necessidades vigentes. Por outro lado,projeto de software proprietário, geralmente parte do princípio que terceiros devem ter umanecessidade e estariam dispostos a comprar uma versão para uso. As corporações quedesenvolvem produtos fechados utilizam o marketing para difundir a idéia da “criação denecessidades”, ao invés de buscar saber quais necessidades têm o mercado com relaçãoa seus produtos. Um dos fatores de sucesso dos projetos software livre é que eles partemde necessidades reais, muitas vezes sentidas pela comunidade de usuário e desenvolvedo-res. Assim, os projetos de software no estilo Bazar originam-se a partir de algum desejo defazê-lo pelo desenvolvedor, o que acaba conseqüentemente envolvendo os programadoresde uma forma mais profunda nas realizações.

2 - Os bons programadores sabem o que escrever. Os melhores sabem o

que reescrever (e reusar).

Essa lição ensina que é quase sempre mais fácil partir de uma boa solução parcial doque começar o projeto apenas a partir do interesse dos desenvolvedores. O Linux, porexemplo, surgiu das mudanças do código e idéias do Minix. No modelo Bazar, a liberaçãodo código fonte funciona como um compartilhamento de conhecimentos e experiências.Essa prática acaba permitindo que um projeto estabeleça suas bases em outros, criandoum ambiente rico em reutilização de código.

Nesse sentido, o autor de um código deve oferecer à comunidade algo real, executável,sobre o qual outros desenvolvedores têm condições de fazer evoluir novas idéias e me-lhorias. No princípio, o líder ou autor de um projeto muitas vezes precisa fazer trabalhospesados de desenvolvimento, alteração de bugs, documentação, avaliação de contribuiçõese principalmente manutenção da web site do projeto. Com o tempo, as habilidades de en-volvimento do líder do projeto permitem aumentar a massa crítica de desenvolvedores eusuários, de forma que as tarefas podem ser distribuídas entre os voluntários.

Cabe destacar que, à medida que os novos voluntários vão chegando, novas necessida-des emergem, a ponto delas conflitarem-se com a idéia original do criador e esta inclusivenão será mais adequada para o projeto. Porém, para que o projeto seja bem sucedido,todas as idéias precisam ser bem acolhidas e exploradas pelos interessados a ponto dacomunidade decidir ou não por sua incorporação no programa. Toda esta abertura em ex-por e explorar as idéias traz mais qualidades às idéias que irão sobreviver à avaliação dacomunidade e conseqüentemente sua incorporação no programa.

108 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

3 - Planeje jogar algo fora; você irá, de qualquer maneira.

O desenvolvedor de programas deve partir do princípio que se deseja fazer algo certo,assim é preciso estar preparado para começar tudo novamente pelo menos uma vez. Pro-jeto que encoraja a troca de código percorre o caminho natural para a sua evolução. Nessalição, o modelo Bazar destaca que no desenvolvimento de programas, as idéias possuemuma dinâmica que é o motor da produção. A possibilidade de obter idéias de outros desen-volvedores faz com que o projeto evolua e adquira novas funcionalidades.

5 - Quando você perde interesse em um programa, sua última obrigação

é fazer com que ele seja entregue para um sucessor competente.

Na produção de software livre, os desenvolvedores, por abraçarem um projeto que éde seu desejo, o fazem com responsabilidade mais profunda do que quando esse é re-alizado em modelos fechados, em que um empregador determina ao desenvolvedor suatarefa. Esse senso de responsabilidade garante uma melhor qualidade de produção que éfreqüentemente adotada na maioria dos projetos software livre. Assim, a liberação de umcódigo fonte é a melhor forma para que um bom projeto tenha continuidade.

6 - Tratar seus usuários como co-desenvolvedores é o caminho mais

fácil para uma melhora do código e depuração eficaz.

Raymond afirma que a maior contribuição do projeto do Linux, não refere a constru-ção do Kernel, mas sim a criação de um novo modelo de desenvolvimento de produção desoftware. Nesse novo modelo, as liberações de desenvolvimento aberto, quanto mais usuá-rios obtiverem o código fonte da distribuição, mais soluções podem surgir para os bugs. Porconseguinte, os usuários comuns se deparariam com menos erros possíveis para um bomdesempenho do software.

8 - Dada uma base grande o suficiente de beta-testes e

co-desenvolvedores, praticamente todo problema será identificado

rapidamente e a solução será óbvia para alguém.

Essa lição é conhecida também como a “Lei de Linus”. Raymond destaca que a grandedescoberta de Linus se refere a metodologia de produção de software, a qual tem comoprincípio que para evitar bugs a melhor forma consiste na liberação rápida e freqüentedo código fonte através da Internet. Nessa lógica, a parte crítica do desenvolvimento desoftware, ou seja, a depuração segue o princípio de que quanto mais usuários estiveremtestando a execução de um programa, a origem de seus bugs podem ser encontrados e

História e Filosofia do Software Livre 109

as correções serem feitas. Uma vez que o código fonte encontra-se disponível isso permiterealizar uma investigação mais profunda a ponto de se chegar na origem do problema,até conseguir propostas de soluções. Além disso, a independência em que os usuáriosdescobrem as origens de um mesmo bugs permite propor soluções diferentes para ele.Como geralmente há grande quantidade de colarobadores empenhados na depuração debugs, isso permite que vários programadores estejam trabalhando no mesmo problema,havendo duplicação de trabalho. O lado positivo de trabalho duplicado é que aumenta aschances de ter pelo menos uma solução de qualidade aceita e incorporada como parte dosoftware.

Porém, poderia ser questionado se não seria importante que a tarefa de depuraçãode bugs tornasse mais formalizada, a fim de evitar problemas de desperdício de recur-sos humanos, pela duplicação de trabalho. Experiências com projetos de software livrebem sucedido dizem que não é positivo, uma vez que o controle desta tarefa teria custoelevado, com a contratação de um gerente. Além disso, essa prática de controle poderiadispersar colaboradores talentosos em depuração de bugs. Estima-se que os esforços du-plicados nesse trabalho causam poucos prejuízos, uma vez que essa prática não é comume quando isso ocorre, as diferentes soluções propostas mostram-se necessárias para exporproblemas mais críticos, sendo até benéficos dentro de um projeto complexo.

O tratamento dos “erros” pelos desenvolvedores, nessa lógica, marca a diferença fun-damental entre o estilos Bazar e Catedral. Nas Catedrais, os projetos de softwares sãoconstruídos em um tempo mais longo, do que o previsto para o término, portanto custammais caros. Os erros e os problemas de desenvolvimento são de difíceis soluções, levandomeses de exames minuciosos por poucas pessoas dedicadas para encontrar as soluções.As versões são liberadas em longos intervalos de tempo, sem que os programas apre-sentem completamente adequadas para o usuário, mas dentro do prazo estipulado pelagerência do projeto. Nessa organização Catedral, o erro pode ser conhecido há anos, semque sejam reparados, uma vez que a equipe de desenvolvedores estão corrigindo o queconsideram mais críticos.

No modelo Bazar de produção de software, os desenvolvedores estão dispersos, amaioria deles trabalhando em tempo parcial, numa dinâmica que permite entrar e sair doprojeto, conforme a própria conveniência e interesse. O projeto não está centralizado sobuma gerência, no sentido de que ninguém determina qual desenvolvedor será responsá-vel por quais tarefas, assim cada membro do grupo faz o que bem desejar no projeto. Ébem provável que esses desenvolvedores nunca encontraram-se pessoalmente, sendo acomunicação mediada entre eles por meios eletrônicos, como: listas de discussão, e-mailsou via discussões em IRC. O erro é assumido como um fenômeno trivial: simplesmenteeles tornam-se triviais muito rapidamente quando expostos para centenas de ávidos co-

110 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

desenvolvedores, depurando a cada nova liberação. Na lei de Linus, os recursos humanosenvolvidos acabam sendo coordenadores do processo de produção junto a outros desen-volvedores (que encontram espalhados em diferentes locais geográficos), ajudando a con-cretizar a tarefa de levar o projeto adiante.

Como a organização Bazar é praticamente formalizada pela Internet desde seu princí-pio, um projeto software livre precisa estar bem apresentado em um web site, no sentidode trazer tanto esclarecimento sobre o projeto, quanto diretividade, a fim de que possaenvolver com facilidade voluntários interessados. Nesse sentido, uma outra condição ne-cessária ao bom funcionamento de um projeto no modelo Bazar é a de que as últimasversões desenvolvidas e a correções realizadas de um programa estejam disponibilizadasem web site de forma a facilitar o acesso. Essas atualizações permitem que os desenvol-vedores acompanhem corretamente as correções e otimize o tempo e esforço para auxiliarem novos reparos. Além deste web site ser preparado para os desenvolvedores, eles pre-cisam atender a audiência de usuários que muitas vezes podem utilizar o software e fazera validação das correções, assim como validar o funcionamento do software original. Esteprocesso permite que os desenvolvedores possam desprender seus tempos e esforços nodesenvolvimento de novas funcionalidades.

5.6 LIDERANÇA DE PROJETO

Uma dúvida bastante comum sobre projeto software livre refere-se a quem toma as de-cisões de correções, melhorias a serem incorporadas no programa, quando novas versõespodem ser disponibilizadas. Para que o projeto se torne bem sucedido, alguma forma degovernança ou gerenciamento é necessário para coordenar as inúmeras atividades. Se-gundo afirma (FOGEL, 2005), por mais que um projeto software livre em sua dinâmicaaparenta ser democrático, a maioria deles acabam exercendo sua governança baseada emdois modelos:

Ditador Benevolente: Em geral é o fundador do projeto, na comunidade destaca-se nãopor habilidades técnicas, mas por sua capacidade de sensibilizar outras pessoas parajuntar-se ao projeto, mediar conflitos e distribuir atividades satisfatória para todos. Éinteressante que o ditador raramente exerce sua autoridade impondo uma decisãosem que a comunidade tenha chegado a um ponto comum de acordo.

Meritocracia: É um desenvolverdor que se destaca na comunidade, por isto é promovidoem uma hierarquia que dá mais liberdade para modificar o código, sem necessitar deaprovação de outrem.

História e Filosofia do Software Livre 111

No modelo de desenvolvimento Bazar, a necessidade de uma liderança faz-se maisno sentido de seguir a comunidade, trabalhando em prol de seus anseios. O interessanteque tanto no caso do ditador benevolente, como da meritocracia, a gerência não pode ser“imposta” ou “nomeada” por um patrocinador. Mesmo no caso do ditador benevolente queem geral é o fundador do projeto, ele precisa demostrar constantemente para a comunidadeque ainda merece o cargo e que é capaz de cumprir satisfatoriamente as suas solicitações.Neste sentido, a vigilância da comunidade acaba por manter sempre “a pessoa mais bempreparada para esse posto”, ao mesmo tempo que motiva os desenvolvedores a manteremuma postura coerente com o projeto. Apesar do líder de um projeto ser muito importantepara o alcance de seu sucesso, a liderança exercida por pessoas com capacidades inataspara isto, segundo (RAYMOND, 1999a) não é mais importante que o modelo Bazar oua dinâmica da comunidade. O autor argumenta esta afirmação dizendo que os projetossoftware livre têm demostrado condições de sobreviver a mudanças de liderança e inclusivede patrocínio.

Como nos projetos software livre, o código fonte de um programa é desenvolvido e man-tido pela comunidade de voluntários e está disponível a todos, a curiosidade dos leigos re-fere sobre como esses voluntários e líderes conseguem se manter envolvidos e motivados.Estudos apontam que a maioria dos projetos de software abertos são de pequeno tamanhoe a maior contribuição vem do seu próprio autor que precisa desde o princípio mostrar oprojeto vivo em site, com entusiasmo e de forma atraente para envolver novos colaborado-res. Pode-se dizer que para um projeto de software livre deslanchar desde seu princípioele precisa tornar-se popular e atrativo, a fim de que consiga aglutinar uma comunidadeformada por profissionais. Desta forma, o papel desempenhado pelo mantenedor ou líder(que na maioria precisa investir muito mais tempo e dedicação que os demais voluntários)é fator crítico de sucesso. A liderança precisa ser exercida claramente, muitas vezes comestrutura hierárquica para ser realizada a contento. É preciso estarem claras as regras desubordinação entre o mantenedor, os líderes e os demais contribuintes, para que o projetoalcance sucesso. Um exemplo emblemático é o caso do Linux, com a liderança exercidapor Linus Tovalds, decidindo que patches serão aceitos ou não na versão do kernel. Apesarda hierarquia não ser formal, ela é aceita por fatores como competência e meritocracia.

Também faz parte deste contexto investigar como os líderes envolvidos, mantenedo-res e voluntários conseguem motivações para permanecerem em um projeto, uma vez queaparentemente não se obtém ganhos financeiros. Pesquisas com a comunidade de desen-volvedores apontam algumas pistas incipientes, como:

• Forte motivação intrínsica do desenvolvedor, que sente-se livre para desenvolveratividades que considera agradáveis. Ao trabalhar em um projeto que não tempressão de prazo e horas estipuladas, nem cobranças por tarefas, o limite da com-

112 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

petência e do desafio é determinado pelos próprios desenvolvedores. Além disso,também conta a motivação causada pelo senso de participação em uma comuni-dade, com suas obrigações e recompensas de reconhecimento pelos pares.

• Motivação extrínseca referente a compensações da evolução profissional. Depen-dendo do projeto envolvido, há oportunidade para desenvolvedores serem reconhe-cidos internacionalmente, sem contar que eles podem estar evoluindo tecnicamente(chance de desenvolver técnicas de programação que não podem ser obtidas emtrabalhos regulares). Empresas têm considerado a participação ativa de desen-volvedores em projetos de software livre, verificado pelas contribuições aceitas norepositório de código e nos créditos dos seus colaboradores, como sendo tão oumais valiosas do que cursos de especialização, certificações profissionais e mesmoexperiência no desenvolvimento de software dentro de empresas.

• Motivação pela compensação financeira, pela oportunidade de explorar serviçosem torno do código aberto, ver mais detalhes no Capítulo 7.

5.7 IMPORTÂNCIA DA POSSIBILIDADE DO FORK

Em projetos software livre, quando um ou vários desenvolvedores perdem a motivaçãoem continuar contribuindo com um projeto há possibilidade da criação de um fork. Por forkcompreende o processo de bifurcação (ou ramificação) em que um desenvolvedor ou umgrupo de desenvolvedores abandonam um projeto, utilizando seu código (ou parte dele)para iniciar outro projeto, de forma independente. Com o fork portanto, surge uma novalinha, técnica e objetivo de desenvolvimento, o software é originado a partir do anterior,sem que ocorra a descontinuidade desse último. Em projetos de software livre, o risco defork sempre existe e, de certa forma, é ele que ajuda a garantir em muitos pontos a coesãodo grupo, por mais estranho que isso pareça. O fato é que a possibilidade do fork faz comque os desenvolvedores busquem chegar a um consenso sobre os rumos do projeto, a fimde evitar esse tipo de cisão na equipe. Além disso, a possibilidade do fork permite que opoder do ditador benevolente seja minimizado, pois caso ele exerça seus poderes de formaarbritária estará induzindo os insatisfeitos a criarem um fork do projeto onde possam seremmais “ouvidos”.

Na história do software livre, alguns forks são relativamente importantes, por mostraremsituações e momentos decisivos no decorrer de um projeto. Esse é o caso do EGCS , porexemplo, que foi um fork do GCC (GNU Compiler Collection), o conjunto oficial de compi-ladores e ferramentas de desenvolvimento da GNU. Desenvolvedores insatisfeitos com apouca evolução do GCC partiram para a criação de uma versão própria, mais ativa que oprojeto original e foi depois considerado o projeto GCC oficial. Mais recentemente, tem-se

História e Filosofia do Software Livre 113

o caso do Xorg28, que é um fork criado a partir do XFree8629. Nesse caso, o motivo de cri-ação do fork refere-se às mudanças drásticas na forma de licenciamento do XFree86, quenão foram aceitas pela comunidade, de uma forma geral. Em alguns casos, o fork pode aca-bar por sobrepujar o projeto original de tal forma que esse acaba sendo esquecido, como ocaso do Sodipodi30, abandonado pela comunidade em prol do Inkscape31. O Beryl32 surgiuinicialmente como uma ramificação do Compiz33, uma espécie de fork interno. Esse tipode procedimento é bastante comum em produção de software: desenvolver um fork oficial,com o objetivo de testar novas idéias e recursos, sem afetar a estabilidade do produto ori-ginal. Isso ocorre, por exemplo, com o kernel do Linux, em que Andrew Morton mantémum conjunto de patches experimentais para a última versão do kernel. Esse também foio propósito original do Beryl, inicialmente denominado Quinnstorn. Entretanto, os desen-volvedores do Compiz recusaram a incorporar as alterações propostas pelo Quinnstorn, osdesenvolvedores desse projeto resolveram fazer uma diferenciação efetiva, e, em setembrode 2006, lançaram-no com o nome de Beryl. Em outubro de 2007, após negociações, osdois grupos reunificaram os projetos, com o nome de Compiz - Fusion, sendo que cadagrupo se foca em uma parte do projeto.

Conforme examinado em (FOGEL, 2005), um fork em projeto software livre é conside-rado ruim porque dispersa os recursos da comunidade. Em uma comunidade em que seuscolaboradores permanecem unidos, comprometido e seguindo os mesmos princípios, aschances de alcançar seus objetivos são superiores do que quando os membros começama competir entre si. Desta forma, a vantagem é maior quando se consegue manter a comu-nidade coesa em busca de cumprir com seu compromisso do que quando cada um segueprincípios divergentes originando um fork.

Por fim, a compreensão da complexidade que é o processo de desenvolvimento decódigo aberto abre novas oportunidades para que empresas de TI possam experienciaressa prática. Nesse sentido, para aquelas empresas que não possuem capital suficientenecessário para se fixar no mercado, com esse modelo de desenvolvimento colaborativoabre-se uma possibilidade, enquanto é inviável no formato de empresa tradicional. E destaforma, cada vez mais no mercado abrem-se oportunidades de interações entre projetos decódigo aberto e empresas privadas de software. Assim, o software livre ultrapassa a visãoromântica e de movimento ideológico para ser encarado como estratégias de negócios sus-

28http://wiki.x.org.29http://www.xfree86.org.30http://www.sodipodi.com/index.php3.31http://inkscape.org/.32http://beryl-project.org/.33http://compiz.org/.

114 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

tentáveis e complementares aos modelos tradicionais da indústria de software. O Capítulo7 aborda com detalhes algumas estratégias de negócios com código aberto.

6LICENÇAS DE USO EM SOFTWARE LIVRE

Os direitos e obrigações de um usuário sobre um software são estabele-cidos em um contrato denominado ‘licença de uso’. No caso do softwarelivre também existem suas licenças, as quais impedem que seus pro-dutos possam ser transformados em proprietários. São as licenças quepermitem o que um usuário pode fazer com um software é que determi-nam se um software é aberto ou livre. Ao longo deste capítulo os leitorespodem perceber as nuanças que separam cada licença, as quais sãoestabelecidas pelos limites de sua permissividade.

6.1 O SIGNIFICADO DE COPYLEFT

Conforme já comentado no Capítulo 5, quando Richard Slallman criou a FSF, no ano de1985, sua preocupação maior consistia em impedir que as liberdades de modificar e distri-buir os códigos fontes de um programa fossem posteriormente removidas. Nesta época, osfabricantes de software tinham como prática incorporar aos seus produtos código e tecnolo-gia desenvolvidas pela comunidade, em seguida redistribui-los sob licenças que impediama comunidade de prosseguir beneficiando-se deste código.

Este problema foi resolvido com a criação do mecanismo denominado copyleft que ins-tituiu a permissividade a cópia sem que o autor ou o desenvolvedor do produto copiadoperdesse seus direitos autorais. Na realidade, o objetivo maior do copyleft é impedir umaapropriação indevida de código disponibilizado gratuitamente. O uso de uma licença comcopyleft em um software livre impede que ele seja colocado em domínio público. Alémdisso, ele também permite que as pessoas compartilhem o programa e suas melhorias, seestiverem disponibilizadas. O que significa que os programas de software livre, cuja licençanão possui copyleft, podem ser transformadas em software proprietário por pessoas não-cooperativas. O exemplo mais significativo de licença com uso de copyleft é a Licença GPL(General Públic License), discutida em detalhes na próxima seção.

116 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

6.2 GPL - LICENÇA PÚBLICA GERAL GNU

A licença de soffware livre mais conhecida e utilizada é, com certeza, a GNU GeneralPublic License1 ou GNU GPL. Essa licença tem como princípio básico garantir que qualquermodificação implementada em um programa regido por ela deva ser devolvido à comuni-dade. Esse fato faz com que a GPL tenha um caráter virótico, uma vez que deve seraplicada a qualquer programa derivado do código fonte de um software liberado sobre essalicença.

A difusão da GPL faz com que não seja incomum perceber uma falsa associação, queinduz a pensar que todo software livre é distribuído sob a GPL, porém existem diversosaplicativos importantes utilizando outros tipos de licenças. É interessante observar queessa falsa associação, principalmente entre os mais leigos, às vezes extende-se ao pontode se supor que todo software GPL faz parte do projeto GNU. Entretanto, existem regrasrígidas para que um programa possa ser considerado como parte do Projeto GNU e recebero aval da Free Software Foundation. De qualquer maneira, a GNU GPL é, com certeza,a mais importante licença de software livre. Dentre as diretrizes estabelecidas por ela,destacam-se:

1. O usuário tem direito de acesso ao código fonte, ou seja: o programa compiladodeve ser distribuído com o código fonte, ou o usuário deve ser informado sobrecomo ter acesso a esse código por um custo não superior ao da distribuição físicado material.

2. O usuário tem o direito de copiar e distribuir o código fonte e executável deum programa, desde que essas cópias sejam acompanhadas de aviso de direitosautorais e uma cópia da licença (ou informações claras sobre onde é possível obtera licença).

3. O usuário pode modificar o código fonte para que o programa atenda suas ne-cessidades, desde que os arquivos modificados contenham a data e autoria dasmodificações. Além disso, se o produto gerado com essa modificação for distri-buído ou publicado, isso deve ser feito sob a licença GPL.

4. Apesar de não estar explícito no texto da licença, o produto gerado por um pro-grama GPL não precisa ser liberado sob licença GPL. Assim, a licença permite aousuário cobrar por produtos, suporte ou distribuição de um programa GPL.

É possível dizer que a GPL é um instrumento legal que implementa o conceito de copy-left. Dessa forma, a GPL estipula as quatro liberdades que formam a definição de software

1GPL - Licença Pública Geral GNU veja esta licença na integra em: http://www.fsf.org/licensing/licenses/gpl.html .

Licenças de Uso em Software Livre 117

livre pela FSF, conforme especificada na Seção 5.1. Por fim, a licença GPL estipula quequalquer forma de redistribuição do código deve permitir aos novos usuários todos os direi-tos concedidos pela licença original. Ou seja, não se pode eliminar alguma das liberdadesdos usuários, ou mesmo criar novas liberdades de forma que seja descaracterizado o sen-tido do software. Desfa forma, os direitos que a GPL pretende preservar devem permanecerintactas sem estabelecer portanto algum tipo de permissividade extra.

É importante observar que a GPL foi criada justamente para proteger a apropriaçãopelos fabricantes dos programas do projeto GNU a ponto de tornarem-se proprietários,conseqüentemente impedindo que a comunidade desse continuidade ao desenvolvimentodo projeto. Como destacado por (FOGEL, 2005), algumas licenças livres permitem que oscódigos protegidos por elas possam ser usados em programas proprietários. Essas licençasnão são, portanto, compatíveis com a GPL. Entre as licenças com essas características,encontram-se a Licença Apache, a Licença X Consortium, a Licença Estilo-BSD, e a LicençaEstilo-MIT.

A GPL diz claramente em seu texto que é permitido cobrar pelo ato físico da transfe-rência de cópia do software protegido por ela, bem como pela venda de proteção de umagarantia. Além disso, a GPL aplica-se apenas ao processo de cópia, modificação e distribui-ção, não especificando outros serviços, como por exemplo, no suporte ou documentação.Dessa maneira, um programa GPL pode ser comercializado de diversas formas, tais como:pela venda de suporte ao software, venda de serviço de empacotamento (gravação emCDs, etc.), venda de garantia, treinamento de recursos humano, entre outros. No caso dacobrança pela distribuição de aplicativos GPL, a licença alerta que isso pode ser feito, desdeque seja publicado um aviso de direitos autorais, uma notificação sobre a exoneração dagarantia, bem como seja enviado uma cópia da licença junto com o programa. Além disso, adistribuição do software deve incluir o seu código fonte ou uma oferta para sua distribuição,por um custo não superior ao da distribuição física do mesmo.

Dessa maneira é importante deixar claro que software livre não implica em softwaregratuito, apesar de que isso costuma ser a principal bandeira levantada sempre que ocorreuma migração. Pode-se cobrar pela venda de software livre, seu treinamento, suporte,manuais impressos, entre outros, o que de certa maneira é a forma de sustentação demuitas distribuições comerciais. Na abordagem deste módulo, a gratuidade do softwarelivre, além de falsa (pois gasta com a mídia, com o uso de Internet, etc.) seria a menor desuas vantagens, podendo ser citadas, por exemplo: a disseminação e democratização deconhecimento e apropriação de tecnologia, como vantagens mais significativas.

Ainda, no que diz respeito à proteção dada pela GPL e ao seu uso comercial, torna-seimportante fazer a distinção entre: produto derivado e agregado. Conforme especificado nalicença, a GPL não cobre os produtos de um software, a não ser que esse produto inclua

118 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

trechos do código fonte de um programa protegido pela GPL. Isso quer dizer que umaimagem editada num programa licenciado pela GPL, ou um livro editado num processadorde textos também licenciado pela GPL, não precisam ser licenciados sob a GPL. Ou seja:um produto de um aplicativo GPL só precisa ser obrigatoriamente licenciado pela GPL seesse produto for derivado de outro produto GPL, incluindo trechos de seu código fonte. Alémdisso, a GPL fala claramente que aplicativos licenciados pela GPL podem ser distribuídoscom aplicativos com outras licenças, desde que haja clara distinção entre o que adota eo que não adota a GPL. Isso permite, por exemplo, que as empresas que mantém asdistribuições comerciais de Linux incluam aplicativos proprietários em seus CDs, como oAcrobat Reader, junto com aplicativos protegidos pela GPL.

Desde o início do ano de 2006, vem ocorrendo o processo de revisão da GPL, de formaque em julho de 2007, a versão 3 da GPL foi oficializada pela Free Software Foundation.Algumas mudanças na nova versão da GPL têm a intenção de reduzir confusão registradasao longo de anos de uso da versão 2 da GPL, publicada em 1991, bem como tornar maisamenas proibições que já não fazem mais sentido. Além disso, havia o risco trazido pelascrescentes ameaças por uso de mecanismos de propriedade intelectual (DRM e patentes),o que também impulsionou a elaboração de uma versão atualizada da GPL no que se refereaos seguintes aspectos:

• Esclarecimento de pontos ambíguos das versões anteriores;

• Na versão 3 é permitido baixar código, programa licenciado em redes P2P semfornecer o código fonte, desde que seja mencionado onde os fontes podem seradquiridos

• A distribuição de binários em mídias tangíveis( cds, dvds, etc) e dos fontes pelaInternet é violação na v2. A v3 admite isso, mas a responsabilidade de distribuir osfontes é imposta a quem fizer esse tipo de distribuição de binários.

• A instalação do software em memória não modificável (ROM) seria infração dalicença GPLv2. A GPLv3 esclarece que isso é permitido, pois a restrição à modifi-cação não é imposta pelo distribuidor, mas sim pela natureza da memória.

• A GPLv3 possibilita combinação com código sob a Licença Apache 2.0.

• Proteção do software livre contra abusos, principalmente no que diz respeito aoefeito das patentes de software, bem como a prática de DRM (Digital Rights Mana-gement).

Neste texto, a GPL v.3 não será abordado em profundidade, uma vez que existem váriaspolêmicas sobre alguns de seus aspectos. O próprio Linus Torvalds tem criticado itens queconstam desde as versões drafts liberadas ao público. Além disso, a versão definitiva destalicença foi liberada muito recentemente (29/07/2007) e ainda existem várias discussões

Licenças de Uso em Software Livre 119

sobre seu impacto legal, sua adoção por projetos de software livre em substituição a versãoGPL v.2. Porém, este tema será amplamente debatido em fóruns de discussão da disciplina.Portanto, para um acompanhamento das discussões sobre a GPL v3 recomenda-se umavisita ao seu site oficial2.

6.3 LICENÇA PÚBLICA GERAL MENOR DO GNU

A GPL, primeiramente denominada Library General Protection License, atualmente Les-ser General Públic License (LGPL) ou Licença Pública Geral Menor do GNU, é uma licençade software livre que concede as quatro liberdades defendidas na GNU-GPL, porém seuuso é indicado para algumas bibliotecas de software, ao invés de programas executáveis.O objetivo desta licença consiste permitir que software proprietário seja construído paraexecutar sob uma base de software protegida pelo copyleft, possibilitando, por exemplo,que o código proprietário possa ser ligado a código distribuído sob a LGPL, sem infringir alicença.

Esse é o caso, por exemplo, da glibc, uma biblioteca básica e utilizada por praticamentetodos os aplicativos do Linux. Como ela encontra-se licenciada sob a LGPL aplicativosproprietários, como Acrobat Reader podem fazer uso das funções implementadas nesta bi-blioteca sem estar infringindo sua licença. De uma maneira simples e resumida, pode-sedizer que a principal diferença entre a LGPL e a GPL é que um desenvolvedor pode incluirbinários licenciados sob a LGPL em seus aplicativos proprietários, sem infringir a licença. ALGPL foi pensada para ser utilizada em bibliotecas de programas, entretanto, pode ser maisrecomendado utilizar a GPL, se não houver necessidade de ligar uma biblioteca com aplica-tivos proprietários. Assim, quando não houver essa necessidade, deve-se optar pela GPL,pois isso faria com que qualquer aplicativo utilizando a biblioteca seja também distribuidosob essa licença.

6.4 COMPATIBILIDADE COM A LICENÇA GPL

Bastante próxima da linha divisória entre as licenças compatíveis e incompatíveis como software proprietário encontra-se a linha que separa as licenças que são compatíveisou não compatíveis com a GPL. Dado que o primeiro objetivo dos autores da GPL é apromoção do software livre, eles construiram essa licença de forma a tornar impossívelque seja misturado código GPL dentro de programas proprietários. Conforme pode ser

2Licença Pública Geral versão 3, URL http://gplv3.fsf.org/.

120 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

verificado na GPL (FREE SOFTWARE FOUDATION, 1991), existem duas cláusulas queespecificam essas exigências:

• Qualquer trabalho derivado, ou seja, algum trabalho que está contido entre o códigoda GPL - ele deve também ser distribuído sobre a GPL;

• Nenhuma restrição adicional pode ser colocada na redistribuição de outro traba-lho original ou um trabalho derivado. A linguagem exata é: “Você não poderáimpor quaisquer restrições adicionais ao exercício, pelos receptores, dos direitosconcedidos por este instrumento. Você não tem responsabilidade de promover ocumprimento por parte de terceiro desta licença.”

Estas especificações proporcionam o efeito bem sucedido da GPL em tornar a liberdadecontagiosa. Uma vez que um programa é copiado sobre a GPL, seus termos de redistribui-ções são virais - eles são passados a diante sempre que o código for incorporado, tornandoefetivamente impossível usar código GPL em programas de código fechado. Contudo, es-sas mesmas cláusulas também tornam a GPL incompatível com outras licenças livres. Aforma usual que isto acontece é que a outra licença imponha um requerimento - por exem-plo, uma cláusula de crédito requerendo que o autor original seja mencionado de algumamaneira - o que é incompatível com os termos da GPL “Você não pode impor qualquer res-trição adicional”. Do ponto de vista da FSF3, essas conseqüências de segunda ordem sãodesejáveis, ou ao menos não lamentáveis. A GPL não somente conserva seu software livre,mas efetivamente torna o seu software um agente que puxa outro para também garantir aliberdade.

A compatibilidade com a GPL é um assunto crítico quando da escolha de uma licença.Conforme já mencionado, a GPL é a mais popular licença de código aberto, o que pode serconfirmado na Figura 6.1. Nessa figura, é possível verifica que a GPL é a licença adotadaem 68% dos programas catalogados na Freshmeat4, e a próxima licença mais usada éadotada em apenas 6% dos aplicativos. Assim, caso pretenda-se que um dado código seja“linkado” com código GPL - e existe muito código GPL na Internet, deve-se adotar umalicença compatível com a GPL.

É importante observar que muitas das licenças de código aberto compatíveis com a GPLsão também compatíveis com licenças proprietárias: isto é, código sob uma licença dessetipo pode ser usada em um programa GPL, mas também pode ser usado em um programaproprietário. Naturalmente, os resultados dessas misturas não seriam compatíveis entre si,dado que uma seria sob a GPL e a outra seria sob uma licença de código-fechado. Mas esta

3 A FSF mantém uma lista mostrando quais licenças são compatíveis com a GPL e quais não são, vejaem: http://www.gnu.org/licenses/license-list.htm.

4http://freshmeat.net/.

Licenças de Uso em Software Livre 121

Figura 6.1: Adoção de Licenças em Projetos da Freshmeat – Fonte: (STATISTICS. . . , 2007)

restrição aplicaria-se somente para os trabalhos derivados, não para o código distribuídoinicialmente.

6.5 LICENÇAS INCOMPATÍVEIS COM A GPL

Algumas licenças associadas a programas com código fonte disponibilizado permi-tem ao usuário ver, e em alguns casos até modificar esses programas, mas sem poderredistribui-los e não possuindo nenhum direito sobre as alterações. Esse é o caso de li-cença como: a Licença Pública de Código-Fonte da Apple (APSL). A APSL concede direitosexcessivos à Apple, pois o usuário não pode utilizar uma versão com modificações que nãoestejam autorizadas pela Apple, que pode inclusive fechar o código de um programa APSLa seu critério.

Uma licença altamente restritiva nesse formato está sendo utilizada pela Microsoft parapermitir que algumas empresas e universidades tenham acesso ao código fonte do Win-dows, num esforço para tentar conter os avanços do software livre. A licença de códigocompartilhado da Microsoft, inclusive, pode ser considerada uma “armadilha”, pois disponi-biliza partes selecionadas do código, sem permissão de uso para divulgar as informaçõesobtidas ou desenvolver programas concorrentes. Essa disponibilização parcial do códigofonte apenas atende interesses da Microsoft em manter seu poder sobre a indústria de

122 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

software. Com isso, é possível retornar a uma discussão anterior, a de que não bastadisponibilizar o código fonte de um programa para que ele se torne software livre. Se aliberação desse código é cercada de restrições, o que geralmente se tem é um códigoproprietário que tenta mostrar-se mais aberto a seus usuários, sem na verdade sê-lo.

6.6 PATENTES

Conforme tem sido discutido as licenças de software livre são baseadas nas leis dedireitos autorais, mas não é difícil encontrar no mercado fabricantes de software buscandomelhorar a sua receita oriunda da venda de licenças de software pelo uso das patentes. Nogeral, uma patente é um conjunto de exclusividade de direitos concedidos pelo Estado quegarante ao criador da idéia (inventores) a proteção contra a exploração comercial de suacriação, por período determinado. Algo que esteja patenteado garante direitos exclusivos deuso da invenção a quem patenteou, os quais referem-se a prevenção de outros fabricantesusarem, venderem, oferecerem à venda ou importar/exportar a referida invenção.

Existem toda uma polêmica sobre patentes de software. Mesmo em países com forterespeito ao uso de patentes e direito autoral fazem restrinções a uso de patente de software.Nos Estados Unidos, software não era patenteado até início da décadas de 80, quandoem 1981, um caso levado à Suprema Corte garantiu o direito de registro de patente deum software que garantia a forma correta de uso de um determinado dispositivo. A partirdeste momento, o Congresso Americano criou uma nova corte para tratar casos envol-vendo patentes; considerando patentes como válidas, a menos que provado inválida ouque se tratasse de descobertas óbvias. Dessa forma, qualquer tipo de invenção que tivesseineditismo poderia ser patenteado e no início da década de 1990 as patentes de softwareestavam bem estabelecidas nos Estados Unidos, que são o maior exemplo atual da ado-ção de patente de software. Outro país que adota postura semelhante é o Japão onde osoftware é diretamente patenteável. Atualmente tem-se como exemplo de itens patente-ados o uso do “duplo clique” do mouse e o algoritmo de codificação e decodificação doMP3.

Na Comunidade Européia desde 1972, as patentes são regidas pela Convenção da Pa-tente Européia (CPE). Membros da União Européia possuem legislação nacional derivadadesta convenção. Essa convenção define, em seu artigo 52, as invenções patenteáveis ex-cluindo claramente “programas para computadores”. A interpretação legal desta convençãoé que não se pode patentear “programas para computador como tal”, ou seja, o softwarepor si só. Entretanto, um invento que use software (e que dependa dele), poderia ser paten-teado, o que cria dificuldades legais nessa questão. Dessa maneira, O Conselho de Apelos

Licenças de Uso em Software Livre 123

do Gabinete de Patentes Europeu, tem interpretado que o Artigo 52 refere-se a assuntosnão “técnicos”, mas um programa que resolva um problema técnico tem carácter técnico epode ser patenteado. Dessa maneira, estima-se que o GPE tenha concedido até hoje 30mil patentes de software, e existe ainda todo um debate efervescente na Europa a esserespeito. O Brasil, com relação a este tema, adota posição semelhante a União Européia,sendo que a Lei 9279 de 14 de Maio de 1996, que regula direitos e obrigações relativosà propriedade industrial, faz concessão de patentes de invenção de modelo de utilidade(BRASIL, 1996). Segundo o art. 10 dessa lei, não se considera invenção nem modelode utilidade os programas de computador em si. No entanto, na prática tem ocorrido opatenteamento de software em condições similares às que se obtém proteção no sistemaeuropeu.

As patentes de software são alvos preferidos das discussões atuais em software livre,porque elas apresentam uma ameaça real contra a possibilidade da comunidade criar umaimplementação livre para um programa. Muito argumenta-se que a patente traz sérios pre-juízos à indústria de software como um todo, ao criar dificuldades nebulosas no desenvolvi-mento de aplicativos com funcionalidades para as quais não se tenha certeza da existênciade patentes a seu alcance real. Isto acaba por privilegiar grandes empresas, uma vez queelas têm mecanismos econômicos para manter equipes de advogados indicados a lidaremcom processos de patentes.

A comunidade de software livre é prejudicada diretamente e indiretamente pelas paten-tes. Por um lado, existe o risco real de que algum fabricante de software acione legalmentealguma comunidade desenvolvedora de um dado software livre, por quebra de patente. Im-pedindo essa comunidade de continuar seu desenvolvimento. Por outro lado, as patentesde software criam uma atmosfera de segredo entre os projetistas de software, justificadapela preocupação que, ao publicar detalhes de suas interfaces, eles estariam auxiliandotecnicamente seus competidores na busca de prejudicá-los, provocando a quebra patentes.Este é o caso por exemplo dos fabricantes de placa de vídeo que relutam em divulgar suasespecificações para a produção de drives de código aberto de alta performace. O motivopelo qual os fabricantes não fazem isto, como comentado em (FOGEL, 2005) é que :

(...) essas empresas estão todas violando as patentes uma das outras, às vezesintencionalmente e às vezes acidentalmente. As patentes são tão impredizíveise tão potencialmente amplas que nenhum fabricante de placa pode ter semprecerteza de estarem seguras, mesmo depois de feito uma pesquisa de patente.

Desta maneira, os fabricantes decidem não publicar suas especificações completas deinterface, a fim de não tornar mais fácil aos competidores saberem se alguma patente foiquebrada.

124 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

É importante destacar que várias licenças de software livre, entre elas a GPL e a doApache possuem cláusulas explicitas de proteção contra problemas com patentes. Porexemplo, a GPL diz claramente em seu texto que decisões judiciais ou alegações de infrin-gimento de patentes não livram o usuário do cumprimento de obrigações da GPL. Conformeespecifica a GPL (FREE SOFTWARE FOUDATION, 1991): “Se você não puder distribuir deforma a satisfazer simultaneamente suas obrigações para com esta Licença e para comas outras obrigações pertinentes, então como conseqüência você não poderá distribuir oPrograma.”

7MODELOS DE NEGÓCIOS COM

SOFTWARE LIVRE

O fenômeno do software livre não pode ser estudado e compreendidodeixando de lado as questões relacionadas aos aspectos enconômicos.Este capítulo objetiva afastar a falsa impressão de que o software livretem fraco potencial de negócio. No texto, são apresentadas diversas es-tratégias de negócios, bem como, os benefícios e problemas inerentes acada uma, sem deixar de mencionar o contexto de negócio com softwarelivre no Brasil.

7.1 CONTEXTO IDEOLÓGICO E NEGÓCIOS COM O SOFTWARE LIVRE

A década de 80, quando emergiu o movimento Software Livre, foi marcada por fortestendências ideológica baseada na filosofia de preservação das liberdades dos desenvol-vedores e usuários da computação. Esses ideais quase sempre eram formados tendo porbase uma visão marxista ou anarquista, não sendo impossível encontrar membros da comu-nidade software livre com posturas “anti-empresa”, donde originam os pré-conceitos sobreos produtos software livre sustentados por alguns empresários até os dias atuais .

Conforme pode ser resgatado na história da origem do movimento e criação da FSF,a comercialização de fitas com o software GNU Emacs e GCC, mais recentemente vendade livros e camisetas, formaram a base econômica para manter o projeto. Mas, em suamaioria, os projetos de software livre eram patrocinados por instituições acadêmicas oumesmo por esforço individual. Esse cenário de nascimento do movimento software livrepropiciou a errônea impressão que com software livre não é possível gerar receitas. Porém,a idéia mais forte subjacente à expectativa de inviabilidade econômica do software livre têmsuas origens no modelo de fábrica. Esse modelo pressupõe que o tempo de desenvolvi-mento tem que ser pago pelo valor de venda, que o valor do software é proporcional ao seucusto de desenvolvimento e seu valor de uso. Nessa lógica, os proprietários do software

126 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

obrigam os usuários a comprarem novas versões dos programas, porque se continuarema usar as antigas não terão mais suporte dos fabricantes. Ou então, os arquivos que sãogravados pelos aplicativos proprietários ficam sem possibilidade de compartilhamento comoutras versões desse mesmo programa, o que vem a criar uma pressão para que todosusem o programa mais atual, ou para que os outros fabricantes de produtos proprietáriosadaptem seus proprietários para ter compatibilidade com outro formato do mercado. Para(RAYMOND, 1999b), o modelo de fábrica para produção de software não se sustenta cor-retamente. O autor afirma essa idéia com base em duas premissas:

• Há fortes evidências de que mais de 90% da produção de software é ainda produ-zida localmente, isto é, dentro da própria empresa que necessita do software.

• A maior parte do tempo gasto com software produzido é com a manutenção (cor-reção de bugs, pequenas adaptações, etc), do que com o desenvolvimento propri-amente dito.

Ainda segundo (RAYMOND, 1999b), o software não pode ser encarado como ‘merca-doria’ a ser comercializada como quaisquer outros produtos que estão no mercado, porquesua natureza é diferente. Por exemplo: se uma empresa que vende uma determinada mer-cadoria abre falência, ou seja, vem a fechar, o seu produto geralmente mantém o mesmovalor. Isto não ocorre no mercado de software, em que o software perde seu valor parao consumo. Nesse contexto, a maior conseqüência recai sobre o usuário desse software(produto) que não tem mais o suporte e atualização do mesmo. Sendo assim, o software éuma indústria de serviço e não de mercadoria. Com a visão de que software é uma merca-doria, consumidores perdem porque o software é uma indústria de serviço, os incentivos nomodelo de fábrica trabalham em direção oposta ao oferecimento de serviços competitivos(RAYMOND, 1999b).

Esse modelo de desenvolvimento cuja base de sustentação é a indústria de serviçosvem ganhando adesão de panteões da indústria de software, como: IBM, HP e Oracle e re-centemente a Novell, que estão aderindo de alguma maneira ao código aberto (KOENING,2004). Conforme apontado em (OHL, 2007), a pesquisa da Consultoria Evans Data mostraque o Linux está presente em 73% das companhias com mais de mil funcionários, enquantohá um ano, esse índice era de 65%. Ainda pesquisas dessa consultoria afirmam que, nosEstados Unidos, o Linux já é executado em 24% das empresas que têm de 100 a 250funcionários. Vários estudos sobre software livre concluem que ainda não há um líder demercado claro, o que caracteriza mercado ainda em formação, aberto a novas tecnologiase modelos de negócios inovadores. Porém, quando se fala sobre este assunto, a grandequestão que paira nas mentes de muitas pessoas se refere a como essas empresas geramlucro desenvolvendo e utilizando software livre.

Modelos de Negócios com Software Livre 127

Conforme supra mencionado, o código aberto inspira não somente novos modelos deprodução, uso e distribuição de programas de computador que se adequam muito bemas tendências da Sociedade da Informação, como também, promove novas dinâmicas ouestratégias de negócios, tangenciadas por novas aberturas de exploração comercial dosoftware. Entretanto, a transferência de valor econômico gerado do código aberto é, àsvezes, implícita, ou seja, não são facilmente percebidas. Nas próximas seções serão abor-dadas as vantagens e riscos das várias dinâmicas e estratégias de negócio com códigoaberto, a fim de extender a compreensão sobre o tema e propiciar sua maior efetivaçãonas empresas e no mercado, ao mesmo tempo tem intenção de se distanciar da visãoanti-capitalista em torno do software livre.

7.2 ESTRATÉGIAS DE NEGÓCIO COM SOFTWARE LIVRE

De acordo com os estudos da IT Managers (KOENING, 2004), os usuários individuaise empresas de software possuem atualmente muitas opções para satisfazerem suas ne-cessidades computacionais e de redes. Para ele, o código aberto oferece oportunidadespara o empreendimento ser mais independente, através das modificações de código fonte,em atualização de programas, maior liberdade na integração de decisões e interação diretacom a comunidade de código aberto. Esse autor argumenta que o código aberto cria opor-tunidade para implementar projetos em um caminho que é consideravelmente meticulosonas regras do empreendimento, mais do que nas regras de uma empresa de software pro-prietário. O código aberto oferece avanços competetitivos para vendedores de hardware esoftware e possui um leque de serviços mais criativo e competitivo que soluções proprietá-rias. Esses fatos inclusive são assinalados em (KOENING, 2004), como os motivos pelosquais a adoção Linux e código aberto continuam em ritmo acelerado.

Assim, a IT Managers classificou as principais estratégias de negócio que utilizamsoftware livre. Essas categorias dizem respeito à forma com que a empresa incentiva eobtém retorno do investimento. O estudo aponta sete categorias de estratégias para ne-gócio com código aberto: Estratégia de Otimização; Estratégia da Licença Dual; Estratégiade Consultoria; Estratégia de Assinatura (Subscription); Estratégia de Patrocínio ou Apadri-nhamento (Patronage); Estratégia de Embarcado (Embedded) e a Hospedagem (Hosted).Segue-se uma análise de cada uma destas estratégias, identificadas pela IT Managers.

7.2.1 A Estratégia de Otimização

A estratégia de otimização visa tirar proveito da camada baseada em commodity e combaixa lucratividade e otimizar o sistema que executará sobre esta camada para ter o melhor

128 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

desempenho possível. Em uma arquitetura de código fechado essa estratégia é inviável,pois modificações na camada de base não são possíveis. Para O’Reilly (O’REILLY, 2004), ocódigo aberto traz mudanças de paradigma na indústria de TI, ao forçar uma transformaçãodo software commodity . David Stutz, em (STUTZ, 2004), conceitua commodity como:

Commodity é usado atualmente para representar matéria-prima para processosindustriais: coisas ou substâncias que são consideradas valiosas como blocosbásicos de contrução para diversas finalidades. Por causa de seu valor geral sãousados tipicamente em grande quantidade e de várias formas diferentes. Como-dities são geralmente fornecidos por mais de um produtor e consumidor e podemsubstituir um produto por outro sem prejuízos. Porque comodities são consumidasdesta maneira, elas são definidas por padrões de qualidades uniformes aos quaisprecisam ser seguida.

Como exemplo de estratégia de otimização pode ser mencionado o caso da Electro-nic Arts que precisou adicionar servidores confiáveis para versões online do jogo "Sims".A Oracle propos a ela a versão Linux de seu Oracle9i RAC (Real Aplplication Cluster -Cluster de Aplicação Real). A partir do momento em que ela utilizou um hardware e umsistema operacional que permite a comodity, a Oracle pode aumentar sua margem de lucroe ainda assim diminuir o custo para Electronic Arts. Se a Oracle estivesse adotado umasolução baseada em uma versão proprietária de UNIX e em um hardware também pro-prietário, teria obtido menos lucro e estabelecido um custo maior para o seu cliente. Outroexemplo interessante de estratégia de otimização é a da Cyclades (comprada em 2006 pelaAvocent1) que fabricava equipamentos de redes para uso corporativo principalmente (rote-adores, switches gerenciáveis, servidores Web estaqueáveis), todos baseados em softwarelivre, especialmente em Linux. Sendo assim, cyclades focava-se em vender soluções deredes sem preocupar-se com uma equipe de TI grande para manter o software utilizado emseus equipamentos.

Assim, a estratégia de otimização enxerga a construção de uma solução específica decomponentes de código aberto, tanto para hardware como para software. A solução desoftware é composta por uma plataforma básica de código aberto mais novas camadas defunções relevantes ao contexto de negócio. A solução de hardware é composta por umcomponente de código aberto que permite que o produto seja comercializado, utilizandocomo componente embutido ou produto embarcado (Estratégia Embarcada). Ainda podeser utilizado na venda de produto em forma de driver (Estratégia Habilitando Hardware).Estas duas estratégias originadas da otimização de componentes código aberto, o valorfinanceiro é gerado da venda de solução final e dos serviços agregados de pré-venda e pós-venda. Por trás desta lógica de negócio é possível gerar novos componentes competitivos

1www.avocent.com.

Modelos de Negócios com Software Livre 129

ao mercado, capazes de ampliar os usuários de software livre e gerar lucro e investimentosàs empresas.

7.2.2 Estratégia de Patrocínio

Segundo (KOENING, 2004), o código aberto como estratégia de otimização estimulaoutra estratégia de negócio: a de patrocínio. Esta estratégia compreende a colaboraçãopor parte de empresas em projetos baseados em código aberto. Por exemplo, uma em-presa libera o código fonte de uma determinada aplicação à comunidade e apoia um pro-jeto com dinheiro ou desenvolvedores. Os motivos que levam empresa a apoiar um projetode software livre diz respeito as tentativas de impor a convergência da comunidade a umadefinição de padrões, ou um esforço para commodity uma camada de software a fim deeliminar a concorrência e tirar lucro de uma camada de valor acima da que foi feita a com-modity como forma de penetrar em segmentos de mercado monopolizados, na busca demanter uma base consistente de usuários. Faz parte desse tipo de estratégia a liberaçãodo código fonte do Eclipse pela IBM, do StarOffice pela SUN (posterior OpenOffice.org) oudo navegador Netscape (posterior Mozilla Firefox).

Os principais ganhos comerciais nesse negócio consiste na ampliação do número deusuários, importantes no desenvolvimento, inspeção e divulgação do software, viável paraa evolução da empresa no mercado, e na atração de um maior número de investidores.

7.2.3 Estratégia da Licença Dual

A licença dual permite conciliar em um mesmo produto de software duas licenças: pro-prietária e livre, as quais permitem que o software seja utilizado em um projeto livre semqualquer custo, mas às vezes com um número limitado de funções; enquanto para sua uti-lização comercial é necessário a aquisição de uma licença. Além disso, o licenciamentoduplo permite que o produto possa ser incorporado como parte de outros programas denatureza estratégica para o cliente, sem que seja aberto o código para uso das empresasconcorrentes, por outro lado almeja beneficiar-se com o envolvimento da comunidade.

A MySQL é um exemplo do uso da licença dual, ela comercializa um servidor de bancode dados sob licença GPL2 para uso não comercial com software de código aberto e umalicença para uso comercial. O lucro é gerado pela venda ou oferta de serviços associa-dos ao software, além disso este negócio beneficia-se com a estratégia de patrocínio3, de

2A licença dual exige na prática que a licença livre seja GPL a fim de impedir que os competidores utilizemo software para o desenvolvimento de uma versão proprietária.

3Está relacionado ao aumento da comunidade de usuários, ações em publicidade.

130 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

assinatura (oferece serviços agregados) e de otimização (configuração, personalização esoluções conforme requisito da empresa).

7.2.4 Estratégia de Hospedagem

Consiste na oferta de um serviço (como por exemplo o usuário poder utilizar o programada empresa) baseado em softwre livre de forma gratuita, ou a partir de uma taxa paga.Esta estratégia de negócio, implícita de serviços, está em destaque atualmente, podendoser citado as seguintes megacorporações: Google, eBay, Salesforce.com. e a Amazon.

A Google é talvez o maior exemplo da venda de serviços implícitos. Ele tem seu sistemabaseado no Linux e com melhorias próprias que não precisam ser retornadas à comuni-dade, uma vez que não tem obrigação de compartilhar modificações de códigos. O Googlelibera as APIs (Interfaces para Programação) de seus produtos na Web e cobra pelos usosde algumas delas. A utilização do Linux trouxe a vantagem de ser possível aproveitar umsistema operacional e implementar apenas as melhorias necessárias e adequados ao pro-pósito da empresa.

7.2.5 Estratégia de Consultoria

Segundo (KOENING, 2004), um estudo da McKinsey Consulting de 1999 sugere que,cerca de 70% do custo de uma solução corporativa é relativa à implantação e os 30% res-tante referente a aquisição de licenciamento. Já o consultor Rodolfo Gobbi, no texto paraInfo Canal (OHL, 2007), afirma que as estratégias de negócios com o Linux está concen-trado hoje, no Brasil, na instalação e na configuração de servidores, projetos de migraçãode sistemas e suportes. Para esse consultor esses serviços mencionados são os maisbásicos e de menor valor no mercado. Mas, através deles é que é possível a busca per-manentemente de prestações de serviços de maior valor agregado, como as relacionadosa missões críticas, por exemplo. Sem contar que os problemas de mais simples soluçõespodem ser resolvidos rapidamente através da própria comunidade software livre.

Entre os consultores há um consenso em afirmar que a saída para prestar serviços emque as margens de lucros sejam maiores carece de investimento em conhecimento técnico.No começo pode-se iniciar com prestações de serviços às soluções simples como: a insta-lação de firewall, de servidores Proxy, Web e outros. Depois estes serviços transformam-seem “comodities” e as necessidades das empresas passam a ser as aplicações centrais,como: banco de dados, clustering, mainfraime e soluções de alta disponibilidade. Muitasempresas precisam integrar aplicações e soluções, uma vez que, a preferência por produtoscódigo aberto, traz a necessidade da interoperabilidade entre as plataformas e programasproprietários e livres, as quais precisam ser garantidas.

Modelos de Negócios com Software Livre 131

A prestação de consultoria em treinamento de usuários também gera receita às em-presas, além de ensinar usuários finais a manusearem o sistema, nos departamentos detecnologia da informação da empresa, há escassez de mão-de-obra especializado a dar osuporte técnico adequado, assim a equipe técnica da empresa também carece de treina-mento.

7.2.6 Estratégia de Assinatura

A venda de assinaturas é destacada como a forma mais básica de negócios com osistema de código aberto. A RedHat oferece um serviço de assinatura no qual o assinantetem, por um ano, direito a suporte de configuração, acesso às atualizações do sistema entreoutras serviços. A vantagem da assinatura é que o usuário final tem segurança quandoprecisa obter suporte especializado para o sistema, bem como uma fonte de atualizaçãosegura do programa. Como a RedHat distribui de forma gratuita seu sistema operacional,não havendo comissionamento sobre a venda de licenças, com isto a forma dessa empregaganhar dinheiro no mercado dá-se pela venda de serviços (manutenção e consultoria).Através da disponibilização do sitema operacional, a RedHat incentiva maior instalação deseu produto, com isto, aumenta a probabilidade de número de clientes em potencial embusca de assinatura, ou prestação de outros serviços por esta empresa.

7.2.7 Estratégia Embarcada

Segundo (KOENING, 2004), o Linux pode ser encontrado como base de mais da me-tade dos sistemas embarcados existentes no mercado, uma vez que é um sistema alta-mente flexível, extensível e enstável. Além disso, o GNU/Linux inclui boa-documentação,dispositivos de drivers, uma comunidade ampla de suporte, potenciamente mais responsá-vel do que muitos vendedores proprietários. Desenvolvimento de ferramentas para Linuxembarcado tem sido usado em muitos dispositivos de serviços telefones celulares, já que acapacidade computacional dos dispositivos cresceram muito nos últimos anos e tornou-senecessário um sistema operacional para gerenciar os recusos. A Motorola, por exemplo, jáadota Linux em sua linha de celulares com mais recursos.

A vantagem é que o custo de implementação de soluções software livre é bem redu-zido, uma vez que boa parte do produto já foi previamente desenvolvida, sendo necessáriosomente completar e agregar valor à solução. Visando este mercado a Wind River4 migrouparte de seus serviços de sua plataforma com licenciamento tradicional para prover servi-ços e desenvolver produtos para utilização do Linux em dispositivos móveis. Outro exemploé a da empresa paulista TopComm que vem trabalhando com Linux embarcado desde 1999

4http://www.windriver.com/.

132 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

e tem hoje cerca de 30 projetos nessa área. O primeiro desenvolvimento foi para o sistemaque roda nos terminais de consulta de preços da Livraria Saraiva e que usa a distribuiçãoToplinux no software de controle.

7.3 COMENTÁRIOS FINAIS

Conforme abordado no presente capítulo existem diversas estratégias de negócios pos-síveis com o software, desde formas voltada para obter lucros desenvolvendo aplicativosde código aberto, como suporte, assinatura entre outros. Segundo o posicionamento de(YOUNG, 1999):

Ninguém espera que seja fácil fazer dinheiro com software livre. Se fazer dinheirocom software livre é um grande desafio, esse desafio não é necessariamentemaior do que com software proprietário.

O que muda é a forma de se obter lucro, uma vez que com o software livre não setem custo como produto, mas sim como prestações de serviços. Dessa forma, os produtosoriginais não precisam ter um custo direto para o usuário, uma vez que existem váriasestratégias, como as já citadas, em que os desenvolvedores podem vir a lucrar trabalhandonessa cultura.

Em várias situações, inclusive, a filosofia de código aberto para quem desenvolve émais econômica do que a filosofia de software fechado. De acordo com a afirmativa deBrian Behlendorf, em (BEHLENDORF, 1999), o produtor de software livre pode precisarinvestir menores tempo e custos de desenvolvimento, através da correção de bugs e novasinovações implementadas por seus colaboradores.

Os valores dessa nova cultura de produção de Software Livre podem ser sustentadospor argumentos que defendem a idéia de que vender software como produto não apre-senta benefícios na maioria dos casos. Assim, é possível contrapor, com relativa facilidadealgumas idéias, até então reinantes na Engenharia de Software, que defendem o códigofechado. Algumas dessas idéias foram contrapostas em (RAYMOND, 1999b) e descritas aseguir:

Vender o programa: como na maioria dos casos o software é produzido localmente, asua venda não incorpora qualquer ganho extra para a empresa. Sendo que em boaparte dos casos isto traz até prejuízos, pois exige a criação de um setor de vendade software. Mesmo no caso das software-houses, isso é muitas vezes falso, poisdespreza-se o valor do software como serviço e possíveis ganhos que a abertura decódigo venha a trazer (esses ganhos serão comentados a seguir).

Modelos de Negócios com Software Livre 133

Impedir que os programadores conheçam profundamente os programas: não possibi-litar que os usuários (programadores) não verifiquem os códigos do software não di-ferencia os gastos da empresa para a sua produção, além disso, mais cedo ou maistarde, poderia surgir no mercado software semelhante ao seu.

Fechar o código para manter segurança: com as técnicas de decodificação e desmon-tagem (desassembling) existentes atualmente, qualquer hacker relativamente experi-ente será capaz de descobrir os detalhes de funcionamento de qualquer programa (oque pode ser comprovado com as constantes descobertas de furos de segurança emprodutos da Microsoft).

Neste capítulo foram destacadas as oportunidades que são possíveis de serem explo-radas para conseguir apoio para manter um projeto de software livre. De uma forma geral,boa parte da adoção desses projetos foram estimuladas pelo sucesso do Linux. O fato doLinux ter conseguido uma razoável penetração no mercado em um curto espaço de tempochama a atenção para essa forma de produção de software. Ainda mais quando se vêemexemplos claros de sucesso de empresas trabalhando sob essa filosofia (como a RedHat,entre outros). Conforme destacado em (YOUNG, 1999), não se pode competir com ummonopólio com as regras impostas pelo próprio monopólio. Deve-se, nesse caso, competircom o monopólio alterando as regras do jogo a seu favor.

134 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

AAPÊNDICE: APLICATIVOS LIVRES

Por Samuel Pereira Dias

Para o usuário final, o sistema operacional deve ser transparente e re-almente cumprir com a tarefa de ocultar o hardware subjacente. Essetipo de usuário preocupa-se mais com a camada mais alta do sistemacomputacional: as aplicações que ele utiliza. Muitos acreditam que nãoexistem aplicações livres suficientes para satisfazer um usuário medianoe, neste apêndice, esse mito será analisado com cautela.

A.1 FACILIDADE DE USO

Quando se fala em Linux com pessoas que o conhecem superficialmente, uma dasidéias mais recorrentes refere-se à dificuldade de utilização, especialmente do terminal.Entre os motivos pode-se listar o uso contínuo que usuários mais experientes fazem doterminal para resolver problemas no sistema, o grande número de páginas na Web queapresentam comandos ou hospedam histórico de listas onde o terminal é a ferramenta finalpara se resolver todos os problemas ou até mesmo a imagem de sistema operacional paraservidores que se solidifica a cada dia. De fato, a grande maioria desconhece que umusuário comum pode realizar a maior parte de suas atividades sem precisar abrir um únicoterminal, com o avanços dos gerenciadores de ambiente gráfico disponíveis.

Os gerenciadores mais voltados para usuários finais são os projetos KDE1 (Figura A.1)e GNOME2 (Figura A.2). Ambos possuem os recursos básicos para navegação em discoe manipulação de arquivos, gerenciamento de mídias removíveis (disquetes, CD-ROMs,pendrives, etc.). Além disso, possuem uma interface agradável que fascina muitos novatos.O usuário pode realizar qualquer atividade sem precisar recorrer ao terminal, utilizando os

1http://www.kde.org/.2http://www.gnome.org/.

136 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

recursos encontrados nesses gerenciadores, de forma muito similar à realizada em outrasplataformas.

Figura A.1: Gerenciador de Ambiente KDE

A despeito do que muitos usuários iniciantes defendem, a interface gráfica em Linuxnão precisa, nem deve, acompanhar a interface do MS-Windows. A alegação de que ousuário sofre com a mudança de interface não é diferente do impacto sobre ele na rupturado MS Windows 95 com os conceitos e a interface do MS-Windows 3.1x. A alteração nocomportamento e gerenciamento do novo MS-Windows, naquela época, foi muito maiorque a migração do MS Windows para o Linux atualmente, pois os conceitos essenciais dainterface e usabilidade não são distintos.

É importante destacar que KDE e GNOME não são os únicos ambientes para Linux.Talvez sejam os mais usados por usuários iniciantes, pois a maioria das distribuições incluipelo menos um deles como padrão, pela qualidade visual e recursos oferecidos. Todavia,essas características também cobram seu preço (recursos computacionais, como memóriae processamento) para serem usadas, como transparência e animações. O leitor encon-

Apêndice: Aplicativos Livres 137

Figura A.2: Gerenciador de Ambiente GNOME

trará na web3 vários ambientes, com diferentes funcionalidades e exigências de recursos,o que possibilitará a escolha daquele que for mais adequado à necessidade e ao poder deprocessamento de seu equipamento.

A.2 SUÍTE DE APLICATIVOS PARA ESCRITÓRIO

Quando se fala em uso do computador para realização de atividades acadêmicas ouprofissionais, o maior pensamento recai sobre as suítes de escritório. Por esse nome,entende-se o conjunto formado pela agregação de processador de texto, planilha eletrô-nica, editor de apresentações e, em alguns casos, um gerenciador de banco de dados depequeno porte. Entre aplicações proprietárias, o que obteve maior destaque foi o MS Office,que superou vários concorrentes e hoje é referencial para a maioria dos usuários.

3Por exemplo, em http://www.freedesktop.org/wiki/Desktops.

138 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

A suíte mais popular disponível como software livre é o OpenOffice.org4. Entretanto, otermo suíte não é totalmente adequado, pois não se trata exatamente de um agregado deaplicações, mas uma única aplicação que ajusta-se ao tipo de documento aberto ou parâ-metro recebido na inicialização. É composto pelo processador de textos Writer (Figura A.3),a planilha eletrônica Calc, o editor de apresentações Impress e o gerenciador de banco dedados Base. Possui ainda algumas aplicações agregadas, como o Math para edição defórmulas.

Figura A.3: OpenOffice.org Writer

Existem usuários que não dependem de uma aplicação totalmente integrada, usa ape-nas um processador de textos ou uma planilha eletrônica e não precisa de um pacote com-pleto. Há até mesmo os requerem aplicações que exijam menos recursos computacionaispara execução (processador e memória). Para essas necessidades específicas, existem

4 http://www.openoffice.org/.

Apêndice: Aplicativos Livres 139

aplicações independentes, que outrora compunham o projeto GNOME Office5. O proces-sador de textos é o Abiword6, mostrado na Figura A.4 e a planilha eletrônica, Gnumeric7.

Os dois produtos exigem menos recursos para sua execução que suas contrapartespresentes no OpenOffice.org, tornando-os úteis para aqueles que possuem máquinas maisantigas, além de serem totalmente independentes e o usuário poder instalar apenas o querealmente necessita. Ambos oferecem também interoperabilidade com o OpenOffice.org eo MS-Office (importação e exportação de documentos).

Figura A.4: Processador de Textos Abiword

Por fim, convém destacar que usuários KDE também dispõem de uma suíte própria,denominada KOffice8. O projeto possui certo grau de interoperabilidade com as demaisaplicações apresentadas nesta seção, através de filtros de importação e exportação.

5Não há indícios de manutenção do GNOME Office desde 2005, embora as aplicações independentescontinuem em franco desenvolvimento.

6http://www.abisource.com/.7http://www.gnome.org/projects/gnumeric/.8http://www.koffice.org/.

140 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

A.3 APLICAÇÕES PARA INTERNET

Complementando as aplicações de escritório, merecem menção as aplicações parainternet. Além do Firefox9, existem aplicações para os mais variados propósitos. Ainda naclasse dos navegadores, pode-se citar o Konqueror (navegador web e para arquivos padrãodo KDE), navegadores em modo texto (Links e Lynx), etc.

Para gerenciamento de e-mails, merece destaque o Evolution10 (Figura A.5), que alémde suportar as mais variadas tecnologias e protocolos para transmissão de e-mails tam-bém inclui agenda, gerenciador de tarefas e sincronizador com computadores de mão,transformando-se em um das mais completas ferramentas de gerenciamento de informa-ções pessoais11. Usuários que não desejam tantas funcionalidades dispõem de leitores dee-mail como o Mozilla Thunderbird12, o Balsa13 (integrante do ambiente GNOME). Usuáriosdo KDE podem utilizar o KMail14.

Além das aplicações apresentadas, pode-se citar os clientes para diversos protocolosde mensagens instantâneas, como Gaim15 para o GNOME e o Kopete16 para KDE. Usuá-rios de VoIP podem usar o Ekiga17 (anteriormente denominado GNOME Meeting).

A.4 JOGOS E ENTRETENIMENTO

Muitos usuários costumam afirmar que não existem versões de seus jogos favoritospara Linux. Essa informação é parcialmente correta. Além de jogos específicos para a pla-taforma, que acompanham inclusive as distribuições (cartas, quebra-cabeças, etc.), existemvários jogos disponibilizados para Linux.

Por exemplo, a ID Software18 disponibiliza o código-fonte da engine do Doom sob alicença GPL, mas não os arquivos com cenários e personagens. Para sanar essa lacuna,existe o projeto FreeDoom19 para os que apreciam o jogo. Aqueles que possuem os CDscom os jogos da empresa podem baixar um executável para Linux no próprio site e aprovei-

9http://www.mozilla.org/firefox/.10http://www.gnome.org/projects/evolution/.11Do inglês Personal Information Manager (PIM)12http://mozilla.org/thunderbird/.13http://balsa.gnome.org/.14http://kontact.kde.org/kmail/.15http://gaim.sourceforge.net/.16http://kopete.kde.org/.17http://www.ekiga.org/.18http://www.idsoftware.com/.19http://freedoom.sourceforge.net.

Apêndice: Aplicativos Livres 141

Figura A.5: Gerenciador de Informações Pessoais Evolution

tar o material. Atualmente, a ID disponibiliza primeiro os demos para Linux (sua plataformade desenvolvimento) para depois liberar outras versões. Outros clássicos da empresa tam-bém estão disponíveis em Linux.

Entre os jogos nativos do sistema operacional pode-se citar o game de estratégia Fre-eCiv20 (Figura A.6) e a batalha de tanques BZFlag21. Uma lista mais completa de jogoslivres e proprietários pode ser encontrada nos sites especializados em jogos para Linux:LinuxGames22, The Linux Game Tome23, Linux-Games24, dentre outros.

Na área de entretenimento, existem vários players de áudio e vídeo. Dentre os playersde vídeo mais encontrados nas distribuições Linux estão o Xine 25 e o MPlayer26. Para áu-

20http://www.freeciv.org/.21http://bzflag.org.22http://www.linuxgames.com/.23http://www.happypenguin.org/.24http://www.linux-games.com/.25http://xinehq.de/.26http://mplayerhq.hu/.

142 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Figura A.6: FreeCiv

(Fonte: http://freeciv.wikia.com/wiki/Main_Page)

dio, dentre os existentes, apresenta-se o Amarok27 e o Exaile28. Os players apresentadosneste texto são estendidos por meio de plugins para os formatos de áudio/vídeo necessá-rios e apresentam recursos como listas de execução (playlists). Alguns podem conectar-sea bancos de dados na internet para recuperar informações sobre as músicas em execu-ção (álbum, título, intérprete, etc.). Os players de vídeo, em especial, além do suporte astreamming via internet, também suportam formatos como VCD e DVD.

Usuários habituados a visualizar ou ouvir qualquer formato de arquivo multimídia devemestar atentos ao fato de muitas distribuições não oferecerem suporte direto a CODECs29

proprietários. Para contornar a situação, é possível, sem muitas dificuldades, baixar osCODECs de repositórios para que as aplicações possam executar normalmente o arquivo.

27http://amarok.kde.org.28http://www.exaile.org.29CODEC é o plugin responsável por codificar/decodificar formatos específicos de áudio e vídeo.

Apêndice: Aplicativos Livres 143

A.5 APLICAÇÕES ESPECÍFICAS

Existem outros usos do computador além da automação de escritório, navegação eentretenimento. Existem atividades que exigem aplicações específicas, mesmo inseridasno contexto do uso de outros aplicativos. Também existem aquelas atividades que sãorealizadas por nichos bem específicos. Esta seção apresenta algumas aplicações que seinserem nesse contexto, sem pretensão de incluir uma lista exaustiva.

Por exemplo, durante a navegação o usuário pode encontrar um arquivo no formatoPDF30. Para a visualização do arquivo nesse formato existem várias opções, mas o Evince31

tem ganhado espaço em muitas distribuições e oferece opções normalmente encontradasapenas no visualizador proprietário da Adobe32. É importante destacar que o OpenOffice.orgé capaz de exportar seus arquivos nesse formato, dispensando o uso de editores proprie-tários de arquivos PDF.

Projetistas para web necessitam de editores de HTML e de imagens. Na primeira cate-goria, além dos editores de código presentes no próprio Linux, existe o projeto NVU33. Paraedição de imagens, pode contar com projetos como o GIMP34 (Figura A.7) para edição deimagens matriciais e o Inkscape35 para imagens vetoriais (com destaque especial para ouso do formato aberto SVG36).

Como exemplo de nicho mais específico, continuando na área de editoração eletrônica,pode-se citar a produção de material publicitário com o Scribus37. Segundo usuários deequivalentes proprietários, a aplicação evoluiu em qualidade e recursos de tal modo queoferece os recursos necessários a usuários que queiram fazer desde o jornal interno daempresa a projetos de editoração de maior porte.

Aqueles que pretendem manter seus projetos e finanças sob estrito controle têm à dis-posição aplicações que permitam seu gerenciamento. O GnuCash38 é um gerenciador definanças pessoais que utiliza conceitos contábeis (duplo registro, por exemplo) para ca-dastro e análise de operações financeiras (gerenciamento de contas, ações, rendimentos,

30Portable Document Format, formato aberto da Adobe que permite a abertura do arquivo em diferentesplataformas sem prejuízo se sua formatação.

31http://www.gnome.org/projects/evince/.32http://www.adobe.com/.33http://www.nvu.com.34http://www.gimp.org/.35http://inkscape.sourceforge.net/.36http://www.w3c.org/.37http://www.scribus.net/.38http://gnucash.org/.

144 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Figura A.7: GIMP

etc.). O Planner39 é um gerenciador que permite o acompanhamento de tarefas e recursosde projetos.

Para finalizar esta seção, mais alguns projetos de propósito específico são apresenta-dos, como exemplo da diversidade de aplicações que podem substituir, com maior ou menorgrau de qualidade, seus equivalentes proprietários:

KTechLab: editor e simulador de circuitos eletrônicos e microprocessados40 (Figura A.8);

Kino: editor de vídeos41;

DVDStyler: aplicativo para autoria de DVDs42 (menus interativos);

Blender: ferramenta para edição e renderização de cenários 3D.

39http://planner.imendio.org.40http://ktechlab.org/41http://www.kinodv.org/42http://dvdstyler.sourceforge.net/.

Apêndice: Aplicativos Livres 145

Figura A.8: Simulador KTechLab

A.6 CONCLUSÕES

Em geral, os usuários não utilizam apenas as categorias de aplicações apresentadasneste texto. Suas necessidades profissionais ou até suas aptidões e interesses influenciammuito o perfil do software que será usado. Há um vasto acervo de aplicações livres para asmais variadas finalidades, atendendo em maior ou menor grau as exigências do usuário.

Este texto apresentou uma pequena amostra, sem qualquer intenção de torná-la exaus-tiva. Existem muitas aplicações que não poderiam ser mencionadas por questões de es-paço. Teoricamente, qualquer aplicação que roda em Unix pode ser executada em Linuxcom poucas adaptações. Considerando que o Unix possui mais de trinta anos de existên-cia, o acervo é muito grande. Aqui também foram apresentadas apenas aplicações gráficas(com exceção apenas de dois navegadores em modo texto), com enfoque nítido no usuárioiniciante.

146 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Para conhecer mais aplicações, ou buscar os equivalentes livres a software proprietário,recomenda-se a leitura do Guia Livre43. Esse guia de migração, desenvolvido pelo GovernoFederal, é um ponto de partida útil para o usuário conhecer quais aplicativos podem serusados em substituição ao software proprietário habitual. Além do Guia Livre, visitar regu-larmente (e fazer buscas) em sites de gerenciamento de projetos, como o Freshmeat44 e oSourceForge45 também é um auxílio para conhecer mais aplicações disponíveis.

Outro detalhe importante é que nos sites da maioria das aplicações apresentadas exis-tem instruções de instalação que envolvem inclusive a compilação do código-fonte. Issopode assustar a maioria dos usuários, mas é um passo desnecessário na maioria dasdistribuições. Buscando atender o usuário doméstico, as distribuições Linux adotam geren-ciadores de pacotes (instaladores) gráficos que permitem a busca pelo nome da aplicaçãoe sua instalação rápida, sem complicações (e compilações). É recomendável que o usuárioiniciante conheça o mecanismo de instalação de sua distribuição (seu gerenciamento depacotes) antes de partir para compilação manual dos programas desejados.

43http://www.governoeletronico.gov.br/governoeletronico/publicacao/noticia.wsp?

tmp.noticia=469.44http://www.freshmeat.net/.45http://www.sourceforge.net.

REFERÊNCIAS BIBLIOGRÁFICAS

ABBAGNANO, N. Diccionario de filosofía. Espanha: [s.n.], 1991.

APARICI, R. Mitos de la educación a distancia y las nuevas tecnologías. In: APARICI, R.;OSUNA, S. (Coord.). CD-ROM Recursos, Versión 1.0. Madrid: UNED, 1998.

BARAN, P. On Distributed Communications: I Introduction to Distributed CommunicationsNetworks. ago. 1964. IEEE Trans. Comm. Systems.

BARAN, P. Interview 378. 24 out. 1999. IEEE History Center The Institute of Electrical andElectronics Engineers, Inc. Disponível em: <http://www.ieee.org/portal/cms\ docs/iportals-/aboutus/history\ center/oral\ history/pdfs/Baran378.pdf>.

BEHLENDORF, B. Open source as a business strategy. In: DIBONA, C.; OCKMAN, S.;STONE, M. (Ed.). Open Sources: Voices from the Open Source Revolution. Cambridge:O’Reilly & Associates, 1999. p. 70–78.

BRASIL, L. n. d. . d. m. d. . Regula Direitos e Obrigações Relativos à Propriedade Industrial.Diário Oficial da União, 1996. Disponível em: <http://www.planalto.gov.br/ccivil/Leis/L9279-.htm>.

BUSH, V. As We May Think. 1945. URL: http://www.ps.uni-sb.de/duchier/pub/vbush/vbush.

BUSTOS, M. N. Multimedia. Madrid: Anaya Multimedia SA, 1998.

CASTELLS, M. A Sociedade em Redes. São Paulo: Paz e Terra, 2001.

CASTELLS, M. A Galáxia Internet - Reflexões sobre Internet, Negócios e Sociedade. 1. ed.São Paulo: Jorge Zahar, 2003.

CERF, V. G.; KAHN, R. E. A Protocol doe Paket Network Intercommunication. IEEETransctions on Communications, com-22, n. 5, 5 maio 1974.

148 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

CHAIBEN, H. G. Hipermídia na Educação. Universidade Federal do Paraná, 2002.

CONKLIN, J. Hyper text: An Introduction and Survey. IEE Computer-34, 1987.

DERY, M. Escape Velocity: Cyberculture at the End of the Century. New York: Grove Pres,1997.

EISENBERG, J.; CEPIK, M. Internet e Política: Teoria e Prática da Democracia Eletrônica.1a. ed. Belo Horizonte: UFMG, 2002.

ELIAS, P. S. Alguns Aspectos da Informática e suas Conseqüências no Direito. 2000.Disponível em: <http://www.jusnavegandi.com.br>.

FOGEL, K. Producing Open Source Software: How to run a Successful Free SoftwareProject. 1a. ed. [S.l.]: O’Reilly, 2005.

FREE SOFTWARE FOUDATION. Licença Pública Geral do GNU (GPL). 1991. Disponívelem: <http://creativecommons.org/licenses/GPL/2% -.0/legalcode.pt>.

FREE SOFTWARE FOUNDATION. Categorias de Softwares Livres e Não-Livres. 2002.FSF. Disponível em: <http://www.gnu.org/philosophy/categories.pt.html>.

GIBSON, W. Neuromancer. New York: Ace books, 1995.

HARASIM, L. M.; TUROFF, M. Learning Network. Cambridge: Mass-MIT Press, 1996.

HOUAISS, A. Houaiss Dicionário da Língua Portuguesa. 1a. ed. Rio de Janeiro: Objetivo,2001.

KOENING, J. Seven open source business strategies for competitive advantage. ITIManager’s Journal, 13 maio 2004. Disponível em: <http://www.itmanagersjournal.com-/articles/314?tid=85>.

LEE, B. T. WWW: Past, Present and Future. IEEE Computer, 1996.

LEINER, M. B.; CERF, G. V.; CLARK, D. D.; KAHN, E. R.; KLEINROCK, L.; LYNCH, C. D.;POSTEL, J.; ROBERTS, G. L.; WOLFF, S. Histories of the Internet: A Brief History of theInternet. 9 nov. 2006. Internet Society. Disponível em: <http://www.isoc.org/internet/history-/brief.shtml>.

LEINER, M. B.; CERF, V. G.; CLARK, D. D.; KAHN, R. E.; KLEINROCK, L.; LYNC, D. C.;POSTEL, J.; ROBERTS, L. G.; WOLFF, S. S. The Past and Future History of the Inteternet.Comunications of the ACM, v. 40, n. 2, p. 102–108, fev. 1997.

Referências Bibliográficas 149

LEMOS, A. Agregações Eletrônicas ou Comunidades Virtuais? Análises das Listas Facome cibercultura. 1999. Disponível em: <http://www.facom.ufba.br/ciberpesquisa/agregacao-.htm>.

LEMOS, A. Cibercidade: As cidades na cibercultura. Rio de Janeiro: Editora e papers,2004.

LÉVY, P. As Tecnologias da Inteligência. 2. ed. São Paulo: Editora 34, 1995.

LÉVY, P. Cibercultura. 2. ed. São.Paulo: Editora 34, 2000.

LÉVY, P. O que é o Virtual? 2. ed. São Paulo: Editora 34, 2001.

LEVY, S. Hacker: Hackers Heroes of the computer Revolution. 1999.

LICKLIDER, J. C. R. On-Line Man-Computer Communication, Spring Joint ComputerConference. National Press, Califórnia, v. 21, n. 7, p. 113–128, 1962.

LOPES, E. Discurso Literário e Dialogismo em Bakhtin. Araraquara: UNESP, 1993.

LORENZZONI, P. L. Culturas Hacker. Texto Utilizado em Palestra Ministrada. Lavras:UFLA, 2002.

LOZANO, F. S.; UCHÔA, K. C. A. Cibercultura e Software Livre. 1. ed. Lavras:UFLA/FAEPE, 2006. (Curso de Pós Graduação “Lato Sensu” (Especialização) a Distânciaem Administração em Redes Linux).

LUIS, J. Cibersociedad: Los Retos Sociales Ante un Mundo Digital. Madrid: McGRAW-HILL,2002.

MARCELO, S. R. M. d. C. A Trajetória da Internet no Brasil: do Surgimento das Redes deComputadores À instituição dos Mecanismos de Governança. Dissertação (Mestrado) —Universidade Federal do Rio de Janeiro - UFRJ, RJ, set. 2006.

MELEIS, H. Toward the information network. Computer, IEEE Computer Society, LosAlamitos, CA, USA, v. 29, n. 10, p. 59–67, 1996.

MINISTéRIO DO PLANEJAMENTO. e-PING Padrões de Interoperabilidade de GovernoEletrônico. 2.0. ed. [S.l.], out. 2006. Disponível em: .

MINISTéRIO DO PLANEJAMENTO, ORçAMENTO E GESTãO. Guia Livre - Referência deMigração para Software Livre do Governo Federal. 0.9. ed. [S.l.], 22 jun. 2004. Disponívelem: .

150 EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Missão para a Sociedade da Informação. Livro Verde para Sociedade da Informação emPortugal. Lisboa: MSI, 1997.

MIZRACH, S. Is there a Hacker Ethic for 90s Hackers? 1997. Disponível em: <http:/-/packetstormsecurity.org/docs/hack/ethics/is.there.a.hacker.ethic.for.90s.hackers.html>.

OHL, M. Dá pra Ganhar Dinheiro com o Pingüim. 21 mar. 2007. Disponível em:<http://info.abril.com.br/canal/edicoes/21/conteudo\ 220639.shtml>.

O’REILLY, T. Open Source Paradigm Shift. jun. 2004. O’Reilly. Disponível em: <http://tim-.oreilly.com/articles/paradigmshift\ 0504.html>.

O’REILLY, T. What Is Web 2.0 Design Patterns and Business Models for the NextGeneration of Software. O’Reilly, 30 set. 2005. Disponível em: <http://www.oreilly.com/>.

PALLOFF, R. M.; PRATT, K. Construindo Comunidades de Aprendizagem no Ciberespaço.Porto Alegre: Artmed, 2002.

PETER, I. So, Who Really did Invent the Internet? 2004. Internet History Project. Disponívelem: <http://www.nethistory.info/>.

PNAD Pesquisa Nacional por Amostra de Domicílio. Sínteses de Indicadores 2004. Brasil:[s.n.], 2005.

RAYMAND, E. S. The New Hacker’s Dictionary. [S.l.: s.n.], 2003.

RAYMOND, E. The New Hacker’s Dictionary. [S.l.: s.n.], 2003.

RAYMOND, E. S. The cathedral and the bazar. In: . The Cathedral & the Bazaar:Musings on Linux and Open Source by and Accidental Revolutionary. Sebastopol-CA:O’Reilly, 1999.

RAYMOND, E. S. The Magic Cauldron. 1999. URL: http://www.tuxedo.org/~esr.

RAYMOND, E. S. Hacker Howto. 2001. Disponível em: <http://www.catb.org/˜esr/faqs-/hacker-howto.html>.

RAYMOND, E. S. 2006. Disponível em: <http://www.catb.org/˜esr/faqs/hacker-howto.html>.

REDE NACIONAL DE PESQUISA. Guia do Usuário Internet / Brasil, Versão 2.0. Rio deJaneiro: RNP, 1996. URL: http://www.rnp.br/arquivos/rpu0013d.pdf.

SCHAFF, A. A Sociedade da Informação. São Paulo: UNESP, 1992.

SILVA, M. Sala de Aula Interativa. 2. ed. Rio de Janeiro: Quartet, 2001.

Referências Bibliográficas 151

SILVEIRA, S. A. da; CASSINO, J. a. (org.). Software Livre e Inclusão Digital. São Paulo:Conrad Livros, 2003.

SOARES, L. F. G.; LEMOS, G.; COLCHER, S. Redes de Computadores: das LANs, MANse WANs às Redes ATM. 2. ed. Rio de Janeiro: Campus, 1995.

STALLMAN, R. The gnu operating system and the free software movement. In: DIBONA, C.;OCKMAN, S.; STONE, M. (Ed.). Open Sources: Voices from the Open Source Revolution.Cambridge: O’Reilly & Associates, 1999. p. 31–38.

STALLMAN, R. The GNU Manifesto (Com anotações de 1993). Junho 2002. URL:http://www.gnu.org/gnu/manifesto.html.

STALLMAN, R. M. Free Software, Free Society,. 2002. GNU Press. Disponível em:<http://www.gnu.org/philosophy/fsfs/rms-essays.pdf>.

STATISTICS and Top 20. 2007. WWW. Disponível em: <http://freshmeat.net/stats/>.

STUTZ, D. Some Implications of Software Commodification. 2004. Disponível em:<http://www.synthesist.net/writing/commodity\ software.html>.

UCHÔA, J. Q. Segurança Computacional. 2a. ed. [S.l.]: UFLA/FAEPE, 2005.

UCHÔA, K. C. A. Introdução à Cibercultura. 3. ed. Lavras: UFLA/FAEPE, 2003. (Curso dePós Graduação “Lato Sensu” (Especialização) a Distância em Administração em RedesLinux).

VAUGHAN, T. Todo El Poder del Multimedia. 2a. ed. [S.l.]: McGRAW-Hill, 1999.

WEISSBERG, J. L. Real e Virtual. In: André Parente (Org.). Imagem Máquina: A Era dasTecnologias do Virtual. 3a. ed. Rio de Janeiro: Editora 34, 1999.

WOLTON, D. E Depois da Internet? Portugal: Difel, 2000.

YOUNG, R. Giving it away. In: DIBONA, C.; OCKMAN, S.; STONE, M. (Ed.). Open Sources:Voices from the Open Source Revolution. Cambridge: O’Reilly & Associates, 1999. p.56–61.