View
261
Download
0
Embed Size (px)
Citation preview
UNIVERSIDADE DO SUL DE SANTA CATARINA
CLEIDIR CRISTIANO BACK
MOISÉS BACK BÖLL
OTIMIZAÇÃO DE WEBSITE USANDO TÉCNICAS DE SEO E SEM, VISANDO
MELHOR POSICIONAMENTO EM MECANISMOS DE BUSCA
Palhoça
2012
CLEIDIR CRISTIANO BACK
MOISÉS BACK BÖLL
OTIMIZAÇÃO DE WEBSITE USANDO TÉCNICAS DE SEO E SEM, VISANDO
MELHOR POSICIONAMENTO EM MECANISMOS DE BUSCA
Trabalho de conclusão de curso apresentado ao Curso de Graduação em Sistemas de Informação da Universidade do Sul de Santa Catarina, como requisito parcial à obtenção do título de Bacharelado em Sistemas de Informação.
Orientador: Prof. Théo Augustus Luz.
Palhoça
2012
CLEIDIR CRISTIANO BACK
MOISÉS BACK BÖLL
OTIMIZAÇÃO DE WEBSITE USANDO TÉCNICAS DE SEO E SEM, VISANDO
MELHOR POSICIONAMENTO EM MECANISMOS DE BUSCA
Este Trabalho de Conclusão de Curso foi julgado adequado à obtenção do título de Bacharelado em Sistemas de Informação e aprovado em sua forma final pelo Curso de Graduação em Sistemas de Informação da Universidade do Sul de Santa Catarina.
Palhoça, 14 de junho de 2012.
______________________________________________________ Professor e orientador Prof. Théo Augustus Luz.
Universidade do Sul de Santa Catarina
______________________________________________________ Prof. Ricardo Ribeiro Assink.
Universidade do Sul de Santa Catarina
______________________________________________________ Prof. Drª. Maria Inés Castiñeira.
Universidade do Sul de Santa Catarina
AGRADECIMENTOS
Às nossas famílias, que nos apoiaram no decorrer dessa jornada
acadêmica.
Ao professor, e nosso orientador, Théo Augustus Luz, por ter aceitado o
convite, e pela atenção com que conduziu a orientação deste trabalho.
Aos professores Ricardo Ribeiro Assink e Flávio Ceci, pela valiosa
contribuição e assistência dada a nós.
À professora, Dra. Maria Inés Castiñeira, pela impecável orientação,
quanto às etapas de desenvolvimento de um trabalho de conclusão de curso.
Um agradecimento especial ao grande mestre da língua portuguesa,
professor Ivo Zimmermann, pela sua contribuição ao nosso trabalho, na correção
ortográfica.
A todos os professores do curso de Sistemas de Informação, que nos
inspiraram, e foram fundamentais em nossa caminhada acadêmica.
RESUMO
Buscando oferecer oportunidade para empresas e pessoas que desejam
tornarem-se mais conhecidas e aumentar o volume de seus negócios na internet,
realizou-se uma pesquisa bibliográfica aprofundada, na área de otimização de
websites para mecanismos de buscas. O trabalho apresenta formas para que estas
empresas que, por sua vez, possuem um website, e desejam estar bem
posicionadas nos mecanismos de buscas, devem fazer. O importante para estar
bem posicionado, vai muito além de apenas ter uma página na internet, é crucial o
investimento em marketing, mas nem toda a empresa dispõe de capital disponível
para investir em uma boa campanha de marketing, e obter sucesso com ela. As
formas apresentadas consistem em fazer marketing sem gastar muito, obtendo um
resultado eficiente quando aplicado de forma correta. As técnicas de Search Engine
Marketing (SEM) e Search Engine Optmization (SEO), podem trazer o resultado
esperado, porém o processo de aplicação não deve ser esquecido, a aplicação de
SEO no website será um sucesso quando realizada uma análise completa, se a
estrutura da página está adequada para aos padrões de desenvolvimento, e receber
as alterações sem grandes mudanças, qual a região, quem é o público alvo, também
é importante que estejam bem definidos, por isso é indispensável que este trabalho
seja realizado por um profissional especializado nas técnicas de SEM e SEO. O
resultado de todo o trabalho usando estas técnicas, não é imediato como em uma
campanha de marketing paga, pois é um investimento de médio e longo prazo, e
seus resultados podem ser observados em média dentro de seis meses. Para
empresas em que é importante a divulgação das imagens dos produtos ou serviços
oferecidos, ou até mesmo, das instalações físicas. As técnicas se SEM e SEO,
podem ajudar também neste ponto, aplicando-as corretamente, as imagens serão
posicionadas nos resultados dos mecanismos de buscas, na busca por imagens,
dando maior credibilidade para a empresa, o que pode ser a porta de entrada para
clientes ou parceiros para o negócio.
Palavras chave: Webmarketing, Search Engine Marketing, Search Engine
Optimization, Otimização de Websites.
LISTA DE ILUSTRAÇÕES
Figura 1 - “Internet Domain Survey Host Count”. Janeiro de 1994 à Janeiro de 2012.
Fonte: INTERNET SYSTEMS CONSORTIUM (2012)............................................... 11
Figura 2 - Representação da problemática. Fonte: elaboração dos autores, 2012. . 13
Figura 3 - Resultado da pesquisa realizada em 2006 pelas empresas Didit, Enquiro e
Eyetools. Fonte: Jerkovic (2010, p. 24). .................................................................... 16
Figura 4 – Buscadores mais utilizados no mundo, de 2008 a 2012. ......................... 22
Figura 5 – Buscadores mais utilizados na China, de 2008 a 2012. ........................... 22
Figura 6 – Buscadores mais utilizados no Brasil, de 2008 a 2012. ........................... 23
Figura 7 - O crawler começa com uma URL inicial e segue viajando pela web. Fonte:
Ledford (2008, p. 228). .............................................................................................. 27
Figura 8 – What’s is PageRank? Fonte: Cutts (2009). ............................................. 31
Figura 9 - “Pagerank” para o website de notícias G1 (http://www.g1.com.br). .......... 32
Figura 10 - “Pagerank” para o website Twitter (http://www.twitter.com). ................... 32
Figura 11 - Identificação de SEM e SEO em resultados de buscas do Google. Fonte:
Google, 2012. ............................................................................................................ 34
Quadro 1 - Resumo das vantagens e desvantagens da SEO e de PPC. .................. 38
Figura 12 - Exemplo de uso das meta tags “keywords”, “description” e “title”. Fonte:
elaboração dos autores, 2011. .................................................................................. 40
Figura 13 - Exemplo de site que possui a página inicial acessada por mais de uma
url. ............................................................................................................................. 43
Figura 14 - Exemplo de utilização da tag “canonical” em um site. ............................ 43
Figura 15 - Google Brasil segue na liderança dos buscadores no país. Fonte: Serasa
Experian Hitwise, 2011. ............................................................................................. 47
Figura 16 - Resultado da pesquisa “tv led 32 polegadas full hd” via Google Imagens.
.................................................................................................................................. 50
Figura 17 - Amostra do Sitemap em XML. ................................................................ 52
Figura 18 - Página de resultado da busca interna pelo livro “Seo: Otimização para
Mecanismos de Busca” no site da Livraria Saraiva. .................................................. 55
Figura 19 - Página de resultado da busca interna pelo livro “Seo: Otimização para
Mecanismos de Busca” no site do Submarino. ......................................................... 56
Figura 20 - Fluxograma da metodologia de desenvolvimento do trabalho. ............... 62
Figura 21 - Fluxograma da proposta de solução. ...................................................... 64
Figura 22 - Site do jornal norte-americano “The New York Times” criado com
Wordpress. ................................................................................................................ 67
Figura 23 - Exemplo de informações sobre Sitemaps do Google Webmaster Tools. 69
Figura 24 - Exemplo de estatística para consultas de pesquisa do Google
Webmaster Tools. ..................................................................................................... 70
Figura 25 - Site “Técnicas de SEM e SEO”, criado para o projeto deste trabalho. .... 72
Figura 26 - Tags e meta tags do site criado para o projeto deste trabalho. .............. 75
Figura 27 - Arquivo “sitemap.xml” gerado para o website do projeto. ....................... 77
Figura 28 – Código fonte do arquivo “sitemap.xml” gerado para o website do projeto.
.................................................................................................................................. 78
Figura 29 - Arquivo “robots.txt” criado para o website do projeto. ............................. 79
Figura 30 - Resultado da consulta por páginas indexadas para o endereço
“sem.eti.br” de 01 de janeiro de 2012 à 13 de março de 2012. ................................. 80
Figura 31 - Resultado da consulta por páginas indexadas para o endereço
“sem.eti.br” de 01 de janeiro de 2012 à 14 de março de 2012. ................................. 81
Figura 32 - Resultado da consulta por páginas indexadas para o endereço
“sem.eti.br” de 01 de janeiro de 2012 à 14 de abril de 2012. .................................... 82
Figura 33 - Estatística de Sitemap para o endereço “sem.eti.br”. ............................. 83
Figura 34 - Estatística de Sitemap para o endereço “sem.eti.br”. ............................. 83
Figura 35 - Estatística de indexação para o endereço “sem.eti.br”. .......................... 84
Figura 36 - Estatística de indexação para o endereço “sem.eti.br”. .......................... 85
Figura 37 - Visão geral dos visitantes para o website “sem.eti.br” de 01 de janeiro de
2012 a 25 de abril de 2012. ....................................................................................... 86
Figura 38 - Visão geral das origens de tráfego para o website “sem.eti.br” de 01 de
janeiro de 2012 a 25 de abril de 2012. ...................................................................... 88
Figura 39 - Visão geral das origens de tráfego para o website “sem.eti.br” de 01 de
janeiro de 2012 a 25 de abril de 2012. ...................................................................... 88
Figura 40 - Resultado da campanha no AdWords para o website “sem.eti.br” no
período de 06 de maio de 2012 a 09 de maio de 2012. ............................................ 89
Figura 41 - Cliques nas palavras-chave ativadas para o website “sem.eti.br” de 15 de
março de 2012 a 06 de maio de 2012. ...................................................................... 90
Figura 42 - Cliques nas palavras-chave ativadas para o website “sem.eti.br” de 15 de
março de 2012 à 06 de maio de 2012. ...................................................................... 91
LISTA DE TABELAS
Tabela 1 - Percentual das pessoas que utilizaram a Internet, no período de
referência dos últimos três meses, na população de 10 anos ou mais de idade, por
Grandes Regiões, segundo o sexo e os grupos de idade – 2008-2009. ................... 19
Tabela 2 - Porcentagem de cliques nos EUA por número de palavras-chave. ......... 20
Tabela 3 - Crescimento do Volume de Buscas na América Latina. Março de 2010 vs.
Março de 2011. ......................................................................................................... 21
Tabela 4 - Você realiza compras online, como complemento às suas compras off-
line? (Dentre aqueles que visitam sites de comércio online). Outubro e Novembro
2010. ......................................................................................................................... 24
Tabela 6 - Ferramenta de Palavras-chave do Google Adwords. Correspondência de
palavras-chave para o endereço www.sem.eti.br. ..................................................... 47
Tabela 7 - Ferramenta de Palavras-chave do Google Adwords. Correspondência de
palavras-chave para os termos “seo” e “search engine marketing”. .......................... 48
SUMÁRIO
1. INTRODUÇÃO ............................................................................................... 10
1.1 PROBLEMA .................................................................................................. 13
1.2 OBJETIVOS.................................................................................................. 14
1.2.1 Objetivo Geral ............................................................................................. 15
1.2.2 Objetivos Específicos ................................................................................. 15
1.3 JUSTIFICATIVA ............................................................................................ 15
1.4 ESTRUTURA DA MONOGRAFIA ................................................................ 17
2 REVISÃO BIBLIOGRÁFICA .......................................................................... 18
2.1 PERFIL DOS USUÁRIOS DE INTERNET ..................................................... 18
2.1.1 Estatísticas de utilização dos mecanismos de busca ................................. 19
2.2 A IMPORTÂNCIA DO MARKETING DE BUSCA ........................................... 23
2.3 MECANISMOS DE BUSCA NA INTERNET .................................................. 24
2.3.1 Coleta de dados pelos mecanismos de busca ........................................... 26
2.3.2 Classificação dos mecanismos de busca ................................................... 27
2.3.3 Algoritmos de mecanismos de busca ......................................................... 28
2.3.4 Ranking de resultados nos mecanismos de busca ..................................... 29
2.3.4.1 O PageRank do Google.............................................................................. 30
2.4 SEARCH ENGINE MARKETING (SEM) ....................................................... 33
2.4.1 Links ou hiperligações ................................................................................ 34
2.4.1.1 Links naturais ou orgânicos .................................................................... 35
2.4.1.2 Links internos ......................................................................................... 35
2.4.1.3 Links externos ou de referência ............................................................. 36
2.4.1.4 Links patrocinados ou PPC (pay-per-click)............................................. 36
2.5 SEARCH ENGINE OPTIMIZATION (SEO) ................................................... 38
2.5.1 Tags usadas em SEO................................................................................. 40
2.5.1.1 A meta tag “keywords”............................................................................ 41
2.5.1.2 A meta tag “description” ......................................................................... 41
2.5.1.3 A tag “title”... ........................................................................................... 42
2.5.1.4 A tag “H”...... ........................................................................................... 42
2.5.1.5 A tag “canonical” .................................................................................... 43
2.5.1.6 Meta tags “nofollow” e “noindex” ............................................................ 44
2.6 PALAVRAS-CHAVE, TEXTOS E IMAGENS ................................................. 45
2.6.1 Escolha de palavras-chave ......................................................................... 45
2.6.2 Editoração de textos para SEO .................................................................. 48
2.6.3 Otimização para buscas por imagens......................................................... 49
2.7 RECURSOS PARA A INDEXAÇÃO DO WEBSITE ...................................................... 51
2.7.1 O arquivo “sitemaps.xml” ............................................................................ 52
2.7.2 O arquivo “robots.txt” .................................................................................. 53
2.8 SPAM DE SEO ............................................................................................. 53
2.8.1 Conteúdo duplicado .................................................................................... 54
2.8.2 Práticas consideradas como spam de SEO ............................................... 57
2.9 PLANEJAMENTO DAS SOLUÇÕES ............................................................ 59
2.9.1 Processo de planejamento ......................................................................... 60
3 DESCRIÇÃO DO MÉTODO ........................................................................... 61
3.1 TIPO DE PESQUISA .................................................................................... 61
3.2 ETAPAS METODOLÓGICAS ....................................................................... 61
3.3 DELIMITAÇÕES ........................................................................................... 62
4 DESENVOLVIMENTO DA PROPOSTA ......................................................... 64
4.1 DETALHAMENTO DA SOLUÇÃO ................................................................ 64
4.2 FERRAMENTA DE PUBLICAÇÃO DE CONTEÚDO..................................... 66
4.3 GOOGLE ANALYTICS.................................................................................. 68
4.4 GOOGLE WEBMASTER TOOLS ................................................................. 69
4.5 CRIAÇÃO DO WEBSITE .............................................................................. 71
4.5.1 Escolha do nome de domínio ..................................................................... 72
4.5.2 Hospedagem do website ............................................................................ 73
4.5.3 Criação de conteúdo para o blog ................................................................ 74
4.6 OTIMIZAÇÃO DO WEBSITE ........................................................................ 74
4.6.1 Implantação de meta-tags .......................................................................... 74
4.6.2 Criação e geração automática do arquivo Sitemap.xml.............................. 76
4.6.3 Criação do arquivo Robots.txt .................................................................... 78
4.7 ESTATÍSTICAS ............................................................................................ 79
4.7.1 Indexação de páginas................................................................................. 80
4.7.2 Visitas e fontes de tráfego .......................................................................... 85
4.7.2.1 ESTATÍSTICAS DE ACESSOS COM SEO .............................................................. 86
4.7.2.2 ESTATÍSTICAS DE ACESSOS COM SEM .............................................................. 89
5 CONCLUSÕES .............................................................................................. 92
5.1 CONCLUSÕES ............................................................................................. 92
5.2 TRABALHOS FUTUROS .............................................................................. 93
REFERÊNCIAS ......................................................................................................... 94
10
1. INTRODUÇÃO
Segundo Enge et al. (2010), apenas ter um website com um design
moderno e de fácil navegação não é suficiente nos dias de hoje e, para se obter
sucesso, é necessário otimizar o site para alcançar uma boa posição/visibilidade nos
mecanismos de buscas.
A pretensão é sempre alcançar o maior número de pessoas possível e
fazer com que estas indiquem o website ou tornem-se consumidores de uma marca
ou visitantes assíduos.
Segundo Torres (2009), o consumidor, quando está conectado à internet,
tem três necessidades básicas que deseja satisfazer, que são: informação, diversão
e relacionamento. Para o autor, a porta de entrada, na busca por informação, são os
mecanismos de buscas.
Para Enge et al. (2010), o objetivo de um pesquisador, ao utilizar um
serviço de busca, é obter informações relevantes para sua pesquisa. Para os
autores, é importante tentar compreender a psicologia do seu mercado-alvo.
A usabilidade do website também é considerada um fator importante na
tentativa de popularizá-lo na internet. Para Ledford (2008), os usuários da web são
impacientes e não gostam de esperar o carregamento das páginas e nem se
perderem enquanto navegam pelo website.
Segundo informações do site Internet Systems Consortium (2012), a
quantidade de hosts1 tem crescido exponencialmente ao longo dos últimos 18 anos,
conforme apresentado na figura 1 a seguir.
1 Hosts ou hospedeiros são dispositivos que armazenam e transmitem informações, como por
exemplo, páginas web. (CANTÚ, 2003, p. 4).
11
Figura 1 - “Internet Domain Survey Host Count”. Janeiro de 1994 à Janeiro de 2012. Fonte: INTERNET SYSTEMS CONSORTIUM (2012).
Como resultado desse crescimento, há mais conteúdo para os
mecanismos de buscas fazerem a indexação2 e por isso tornou-se cada vez mais
importante ter um website bem otimizado e estruturado para que possa ser
rapidamente indexado ou catalogado por esses mecanismos.
Para Ledford (2008), um website, ao ser publicado, é apenas mais um
entre os milhões que aparecem nos resultados das buscas. A autora recomenda que
um website deverá estar posicionado em algum lugar dentro das três primeiras
páginas dos resultados de uma busca.
Segundo informações do Google Timeline (2011), em 26 de junho do ano
2000, seu mecanismo de busca atingiu a marca de 1 bilhão de páginas web
indexadas, já em 11 de dezembro 2001, este número chegou a 3 bilhões de
páginas. E, em 25 de julho de 2008, o mecanismo de busca Google atingiu o
montante de 1 trilhão de páginas indexadas em seu motor de busca.
Segundo Torres (2009), quase 90% das visitas a websites se iniciam a
partir de mecanismos de buscas, como Google, Yahoo! e Bing. O autor comenta que
2 Um software especializado acessa a um website e lê todas as informações e as guarda num
repositório central (banco de dados). A esse processo dá-se o nome de indexação. (LEDFORD, 2008).
12
nos primórdios da Internet, ou se conhecia a URL3 do website que queria acessar ou
tentava encontrá-lo em algum catálogo online. Com o surgimento dos mecanismos
de busca, o acesso aos websites ficou mais fácil e rápido, pois não é mais preciso
conhecer o site ou o assunto, basta digitar o termo desejado em um buscador e
escolher o melhor resultado.
Torres (2009) explica que, logo após o surgimento dos mecanismos de
buscas, muitos websites novos surgiram e foram sendo agregados aos resultados
das buscas, porém ficou cada vez mais difícil encontrar um site que fosse útil. Isso
levou os mecanismos de busca a criarem parâmetros de classificação para catalogar
e exibir os websites. Como há milhões de pessoas fazendo buscas a todo instante, é
preciso otimizar o website, respeitando os parâmetros recomendados se quiser
torná-lo popular e atrair novos clientes.
Para Bacchin, T. (2007), o posicionamento de um website nos resultados
das buscas é influenciado basicamente pelos seguintes aspectos:
quantidade e qualidade do conteúdo;
popularidade;
arquitetura de navegabilidade (estrutura dos links internos);
meta informações;
layout e programação.
Neste trabalho, as principais técnicas que serão usadas para melhorar o
posicionamento de um website nos resultados das buscas e aumentar sua
popularidade, serão o SEM e o SEO.
O termo SEM é acrônimo de “Search Engine Marketing”. Segundo
Bacchin, G. (2007):
Search marketing é a área de marketing online responsável pelas estratégias e técnicas que envolvem a geração e o aumento de tráfego proveniente de ferramentas de busca, assim como a promoção e proteção de marca nos resultados das mesmas.
O termo SEO é acrônimo de “Search Engine Optimization”, também
traduzido no Brasil como “Otimização para Mecanismos de Busca”. Segundo Marino
(2011):
3 URL (Uniform Resource Locator) é um localizador que permite identificar e acessar a um serviço na
web. Uma URL consiste geralmente em quatro partes: protocolo, servidor (ou domínio), caminho e nome do arquivo, embora às vezes não haja um caminho ou nome de arquivo. Na prática, é o endereço de um site na internet. (CARNEIRO et al., 2008).
13
Otimização para Mecanismos de Busca é o conjunto de estratégias com o objetivo de potencializar e melhorar o posicionamento de um site nas páginas de resultados naturais (orgânicos) nos sites de busca. Também se refere à indústria de consultoria, que trabalha na otimização de projetos e websites de seus clientes.
De uma forma geral, este trabalho vai levar em consideração a
importância que a internet tem hoje nos negócios e até na vida social das pessoas
de todo mundo e estudar maneiras de popularizar um website e aparecer nos
resultados dos mecanismos de buscas. Para o desenvolvimento do que está
proposto, serão aplicadas a um website, técnicas e estratégias de SEM e SEO com
análise de resultados e estudos de novas tecnologias, para que esta pesquisa,
também, possa ser útil para futuros trabalhos na área.
1.1 PROBLEMA
Existem muitas maneiras de criar e publicar um website na internet, seja
um site pessoal ou comercial. Um dos fatores que fará com que este website seja
bem acessado, ou não, será a forma de como ele foi otimizado para os mecanismos
de busca.
Quando um website é publicado geralmente possui pouco conteúdo. E a
falta de bom conteúdo e de visitantes, pode trazer desestímulo ao autor do website,
como representado na figura 2, a seguir.
Figura 2 - Representação da problemática. Fonte: elaboração dos autores, 2012.
14
A grande dificuldade de quem publica conteúdo na internet através de um
website ou blog próprio, é fazer com que apareça entre os primeiros resultados da
busca, fazendo assim com que o link do seu website tenha grandes chances de ser
clicado.
Segundo Jerkovic (2010), após definir o tipo de negócio ou o foco do
website, é hora de conhecer os concorrentes e de saber o que eles estão fazendo.
Para o autor, é fundamental conhecer a concorrência e aprender com ela.
O melhor posicionamento de um website frente aos concorrentes, nos
resultados das buscas, é uma “façanha” que só pode ser alcançada com o auxílio
das técnicas de SEM.
Para Jerkovic (2010), os mecanismos de buscas estão indexando mais
páginas a cada dia, embora nem todos os documentos ou páginas acabam sendo
indexados. Segundo o autor, o processo de indexação das páginas não é
completamente automatizado como muitos imaginam e assim que seja detectado
um website que não respeita as políticas da ferramenta ele é manualmente banido
dos resultados das buscas.
O banimento dos resultados das buscas é algo que pode afetar muito um
website, mesmo que este seja antigo e tenha tido uma boa classificação nas buscas,
ele pode perder posições e até ser removido dos resultados de busca, caso fique
provado que está praticando o chamado “Spam de SEO” que, também será
abordado neste trabalho.
Sintetizando, a pergunta de pesquisa deste trabalho pode ser formulada
como sendo: “Como é possível utilizar técnicas e estratégias de SEM e SEO para
melhorar a visibilidade e posicionamento de um website?”.
1.2 OBJETIVOS
Os objetivos deste projeto estão descritos, a seguir, na forma de objetivo
geral e objetivos específicos.
15
1.2.1 Objetivo Geral
Aplicar as técnicas de SEM e SEO a um website voltado para o marketing
digital e SEO, tendo como alvo elevá-lo gradativamente nos resultados das buscas
e, melhorar sua visibilidade para aumentar a quantidade de acessos.
1.2.2 Objetivos Específicos
criar um website direcionado ao marketing digital e SEO;
aplicar técnicas de SEM e SEO ao website;
analisar as estatísticas de acessos obtidos ao longo do período
estudado;
mensurar a evolução do website em mecanismos de buscas.
1.3 JUSTIFICATIVA
Os mecanismos de buscas possuem predefinições específicas em seus
algoritmos de coleta de dados. Tais definições devem ser conhecidas e tratadas no
website para que o motor de busca faça a coleta e julgue que o site em questão
deverá estar nos primeiros resultados da busca feita pelo usuário.
Segundo Enge et al. (2010), as pessoas utilizam os mecanismos de
buscas para diversos motivos, mas o principal é a pesquisa e a compra de produtos,
estas compras online vêm ganhando espaço no mercado, porém não se pode deixar
de notar a grande interação existente entre a divulgação realizada de forma online, e
as compras off-line, sendo impulsionadas pelas pesquisas realizadas online.
De acordo com Enge et al. (2010), uma pesquisa realizada, em 2006,
mostra o perfil de navegação das pessoas em um website de busca, os principais
resultados visualizados são os localizados ao início da página de resultados, a
16
pesquisa também aponta que as pessoas olham mais as informações localizadas no
canto superior esquerdo da página de resultados.
Para JERKOVIC (2010), a pesquisa mostra que a área visualizada lembra
o formato de uma letra “F”, fenômeno chamado de ”O triângulo dourado”, devido a
ser uma área da página vista por 100% das pessoas que usam mecanismos de
buscas, como pode ser visto na figura 3, a seguir.
Figura 3 - Resultado da pesquisa realizada em 2006 pelas empresas Didit, Enquiro e Eyetools. Fonte: Jerkovic (2010, p. 24).
Na figura 3, acima, a área mais avermelhada mostra que a densidade de
visualização e cliques ali é maior que no restante da página.
Segundo Torres (2009), o SEM significa otimizar, melhorar e ajustar o site
para que este possa ser encontrado por mecanismos de buscas.
A importância da aplicação das técnicas SEM a um website é muito
grande, já que os resultados mais vistos são os melhores colocados nas páginas de
resultados dos mecanismos de busca e, para estar entre eles, é necessário que tais
técnicas sejam aplicadas corretamente, seguindo as regras dos mecanismos de
buscas.
17
1.4 ESTRUTURA DA MONOGRAFIA
Este trabalho está dividido em cinco capítulos. A seguir, será apresentada
a estrutura do trabalho:
capítulo 1 – Introdução: este capítulo apresenta a introdução, o
problema, os objetivos e a justificativa do trabalho.
capítulo 2 – Revisão bibliográfica: este capítulo apresenta aspectos
relacionados ao SEM, SEO e Mecanismos de Buscas.
capítulo 3 – Metodologia: apresentação da metodologia de pesquisa,
proposta da solução e delimitações do projeto.
capítulo 4 – Neste capítulo, são apresentadas as ferramentas utilizadas
para a resolução das atividades propostas. O processo de
desenvolvimento do site, a aplicação das técnicas, a coleta e análise dos
dados e os resultados obtidos.
capítulo 5 – Conclusões e trabalhos futuros: este capítulo apresenta as
conclusões deste trabalho e sugestões para trabalhos futuros.
18
2 REVISÃO BIBLIOGRÁFICA
Para Costa do Vale, Costa e Alves JR (2001), a internet vem crescendo
num ritmo acelerado, e esta explosão está muito ligada ao uso comercial da Internet,
em que os usuários podem fazer transações simples como comprar um livro ou até
comprar e vender ações.
De acordo com estatísticas do site The World Bank Group (2011), é
possível ter uma noção melhor do crescimento exponencial da internet. No ano de
2001, somente 8% da população mundial tinha acesso à internet. Em 2009, a
porcentagem de pessoas no mundo que acessam à internet subiu para incríveis
27.1%, com um total de 1,833 bilhão de usuários.
Acompanhando esse crescimento estão os mecanismos de buscas, que
são considerados a porta de entrada da internet moderna, uma vez que a
quantidade de websites publicados é tão grande que seria impossível para uma
pessoa saber o endereço exato de cada website que deseja acessar.
Ledford (2008) explica que as informações coletadas por um mecanismo
de busca geralmente são palavras-chave ou expressões que indicam o conteúdo do
website indexado e também o endereço da página. Segundo o autor, todo motor de
busca está conectado a um banco de dados que recebe todas essas informações e
organiza-as de acordo com o método de posicionamento específica pelo algoritmo
do mecanismo de busca.
2.1 PERFIL DOS USUÁRIOS DE INTERNET
Para Miletsky (2010), desenvolvedores e administradores de websites
precisam compreender como as pessoas utilizam o site e acompanhar os dados
demográficos de quem acessa, como sexo, idade, educação etc. O conhecimento
desses dados é vital para que o desenvolvimento das estratégias de marketing de
busca seja bem sucedido.
A tabela 1 mostra alguns dados relevantes dos perfis das pessoas que
acessaram à internet nos anos de 2008 e 2009, no Brasil.
19
Tabela 1 - Percentual das pessoas que utilizaram a Internet, no período de
referência dos últimos três meses, na população de 10 anos ou mais de idade, por
Grandes Regiões, segundo o sexo e os grupos de idade – 2008-2009.
Por gênero Usam a internet
Masculino 42,4% Feminino 41,1% Por idade Usam a internet 15-17 71,1% 25-29 53,7% 30-39 42,1% 40-49 32,7% 50 anos ou mais 15,2%
Fonte: adaptado de FUNDAÇÃO INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA. Pesquisa Nacional por Amostra de Domicílios. Brasil, 2008-2009.
Através da tabela 1, podemos perceber que a internet é muito mais
popular entre pessoas mais jovens e pouco utilizada por pessoas acima dos 50 anos
de idade. Também, é possível notar que a diferença de porcentagem entre gêneros
é relativamente pequena. Estatísticas desse tipo são muito úteis para direcionar o
conteúdo do website ao público alvo desejado.
2.1.1 Estatísticas de utilização dos mecanismos de busca
Segundo Fallows (2005), 90% dos homens e 91% das mulheres norte-
americanas que acessam a internet utilizam algum mecanismo de busca. Entre os
seguimentos mais buscados pelos norte-americanos do sexo masculino, naquele
ano, estavam mapas, endereços e religião. Entre as mulheres as buscas foram mais
concentradas na área da saúde. As mulheres procuram por informações de
médicos, doenças específicas, tratamentos e procedimentos clínicos.
Ao analisarmos a tabela 2, podemos perceber que a pessoa tende a
iniciar sua busca digitando o mínimo possível de termos e vai adicionando mais
palavras à medida que sente a necessidade de resultados mais próximos ao que
deseja encontrar.
20
De acordo com Enge et al. (2010), quando esse processo chega em um
resultado satisfatório, cria-se uma experiência positiva para o usuário, o mecanismo
de busca e também para o site de destino.
Tabela 2 - Porcentagem de cliques nos EUA por número de palavras-chave.
Assunto Dezembro 2010
Janeiro 2011
Mudança de percentual de ano para ano
Uma palavra 23,57% 23,39% -1% Duas palavras 24,26% 23,59% -3% Três palavras 20,21% 19,99% -1% Quatro palavras 13,60% 13,71% 1% Cinco palavras 7,98% 8,28% 4% Seis palavras 4,38% 4,62% 5% Sete palavras 2,43% 2,58% 6% Oito ou maiss palavras
3,57% 3,85% 8%
Fonte: adaptado de Experian Hitwise. Percentage of U.S. clicks by number of keywords. Nova Iorque, EUA, 2010-2011.
No cenário brasileiro, como explica Magalhães (2007), usar um sistema
de busca está tão presente no dia a dia dos brasileiros que não há nenhum grupo de
usuários que se destaque no uso. Com dados do IBOPE//NetRatings, o autor relata
que 80% dos brasileiros utilizam algum mecanismo de busca a cada mês, e que este
número chega a alcançar 90% dos usuários quando analisado um período de 3
meses.
Segundo pesquisa estatística da ComScore (2011), na América Latina,
empresa multinacional de pesquisas e medições estatísticas sobre mídias digitais, a
quantidade de buscas na internet cresceu bastante entre 2010 e 2011,
principalmente no Brasil e na Venezuela.
21
Tabela 3 - Crescimento do Volume de Buscas na América Latina. Março de 2010 vs.
Março de 2011.
Buscas (MM)
Mar-2010 Mar-2011 % Mudança América Latina 15.293 18.528 21% Brasil 4.462 5.969 34% México 2.588 3.171 23% Colômbia 2.232 2.866 28% Argentina 1.814 2.186 21% Chile 970 1.041 7% Venezuela 375 493 31%
Fonte: COMSCORE QSEARCH. Crescimento do Volume de Buscas na América Latina. Chile, 2010-2011.
A tabela 3 evidencia o crescimento das buscas na América Latina. Os
dados mostram que houve um crescimento de 21% no volume das buscas em 2011,
na América Latina, em relação ao mesmo período de 2010. E o Brasil foi um dos
países latino americanos em que o crescimento da quantidade de buscas realizadas,
em 2011, superou a porcentagem do crescimento na América Latina em relação a
2010.
Os mecanismos de buscas mais utilizados em todo o mundo, segundo
dados do site Statcounter (2012), no período de 2008 a 2012, são: Google, Yahoo!,
Bing, Ask e Baidu (China).
Para efeitos de comparação, a seguir são mostrados os gráficos da
estatística de utilização dos mecanismos de busca em todo o mundo, na figura 3,
somente, no Brasil, na figura 4 e, por fim, somente na China, na figura 5, com o
intuito de mostrar um dos países em que o buscador do Google não é o mais
utilizado.
22
Figura 4 – Buscadores mais utilizados no mundo, de 2008 a 2012.
Fonte: Statcounter (2012).
Na figura 4, pode-se notar a preferência disparada do uso do buscador do
Google em relação aos demais, se levado em consideração todo o mundo.
Figura 5 – Buscadores mais utilizados na China, de 2008 a 2012. Fonte: Statcounter (2012).
23
Na figura 5, o mecanismo de busca Baidu, na China, é preferido com
61,54% contra 35,36% do Google.
Figura 6 – Buscadores mais utilizados no Brasil, de 2008 a 2012. Fonte: Statcounter (2012).
A figura 6 representa a estatística de uso dos mecanismos de busca no
Brasil. O buscador do Google, seguindo a tendência mundial, foi o mais utilizado
pelos brasileiros, com 97,64% da preferência, entre os anos de 2008 a 2012. O
buscador Bing, da Microsoft, foi o segundo colocado com apenas 1,46% do mercado
das buscas no período. Já, o Yahoo! ficou com 0,7%. Os outros não representam
uma quantia significativa.
2.2 A IMPORTÂNCIA DO MARKETING DE BUSCA
Quando uma pessoa acessa ao site de um serviço de busca, uma de
suas intenções pode ser pesquisar informações sobre um produto ou serviço que
deseja adquirir. É, neste momento, que o Marketing de Busca tem sua importância
ressaltada.
24
As empresas perceberam que as buscas na internet têm um grande
impacto nas vendas, inclusive fora da internet, quando é o caso de empresas que
possuem um local físico para comercializar seus produtos e/ou serviços.
Uma pesquisa da ComScore (2010), na América Latina, mostra como está
o cenário das buscas na internet na América Latina que refletem no comércio
eletrônico.
Tabela 4 - Você realiza compras online, como complemento às suas compras off-
line? (Dentre aqueles que visitam sites de comércio online). Outubro e Novembro
2010.
Porcentagem de Visitantes de Sites de Comércio Online que Realizaram Compras Online.
América Latina por Gênero
Homens – América Latina 79% Mulheres – América Latina 88% País Brasil 94% Argentina 89% Colômbia 84% México 82% Chile 71% Peru 63%
Fonte: COMSCORE QSEARCH. Consumidores no Brasil e Argentina mais propícios a realizarem
compras online. Colômbia, 2010.
A tabela 4 mostra que, na América Latina, as mulheres compraram mais
que os homens no período analisado. Outro dado também interessante é que o
Brasil está na frente dos outros países da América Latina que mais vendem pela
internet.
2.3 MECANISMOS DE BUSCA NA INTERNET
De acordo com Miranda (2007), um mecanismo de busca é uma solução
web que oferece um caminho mais rápido e fácil de encontrar uma informação na
25
web. Com bancos de dados inteligentes agrupados por tabelas e ordenados de
acordo com palavras, os mecanismos de buscas formam uma enciclopédia global
dinâmica com uma enorme capacidade de armazenamento.
Na literatura consultada são utilizadas diferentes nomenclaturas para
designar os mecanismos de busca. Autores, como Ledford (2008) e Enge et al.
(2010), chamam de “mecanismo de busca”, mas existem alguns autores, como
Jerkovic (2010), que usam o nome “ferramenta de busca” e outros ainda utilizam
apenas o nome “buscador” ou “ferramenta de pesquisa”. Neste trabalho, será
utilizado como termo principal "mecanismo de busca" para facilitar o entendimento
do leitor.
De acordo com Valdes (2007), existem diferenças entre cada mecanismo
de busca na internet. Por isso, é necessário conhecer cada um, ou pelo menos os
mais importantes, para alcançar as primeiras posições em seus resultados. Ainda,
segundo a autora, não existe uma técnica universal para adequar um website a
todos os mecanismos de buscas e, por isso, existe a necessidade de conhecer cada
um.
Aperfeiçoar um website para cada mecanismo de busca é possível com o
auxílio de ferramentas disponibilizadas pelos próprios mecanismos de buscas, que
possibilitam que desenvolvedores ou administradores de websites otimizem seus
sites de acordo com as tendências da web sabendo o que as pessoas estão
procurando em determinado período. Para citar um exemplo, o Google possui uma
ferramenta interessante, chamada de Google Insights, que colhe estatísticas do
comportamento das pesquisas realizadas em seu próprio mecanismo de buscas.
Esta ferramenta é bastante útil no Brasil porque o Google, segundo dados dos
últimos 12 meses do site StatCounter (2011), é o mecanismo de busca preferido de
96,95% dos brasileiros.
26
2.3.1 Coleta de dados pelos mecanismos de busca
Ledford (2008) explica que o processo de coleta dos dados sobre
websites é feito por um mecanismo conhecido como crawler4, spider5, bot6 ou robô.
Esse mecanismo faz uma consulta em todas as URLs (endereços) de sites que
estão publicados na internet com o objetivo de coletar palavras e expressões chaves
da página para inserir no banco de dados do mecanismo de busca.
Para Jerkovic (2010), os termos crawler, spider, bot ou robô significam
exatamente a mesma coisa.
O autor define crawler mais resumidamente como um programa
automatizado que cruza a internet para indexar o máximo possível de websites para
um mecanismo de busca.
Segundo Enge et al. (2010), para encontrar os conteúdos e armazená-los,
os mecanismos de busca fazem um rastreamento buscando bilhões de documentos
divididos entre páginas e arquivos. A esse processo os autores dão o nome de
rastejamento. Porém, neste trabalho, será adotado o termo crawler para facilitar o
entendimento, pois a maioria dos autores da área utiliza esse termo quando estão se
referindo ao mecanismo de rastejamento dos mecanismos de buscas.
Para Enge et al. (2010), o crawler é como uma rede de paradas de um
metrô de uma grande cidade, onde as paradas realizadas pelo metrô seriam os
documentos ou páginas localizados pelo mecanismo crawler. Esses mecanismos
rastejam através dos links entre uma página e outra, que, nesse exemplo, seriam as
linhas do metrô.
Tais mecanismos necessitam localizar todas as paradas no decorrer do
caminho, buscando usar o melhor trajeto disponível para localizá-los. Logo após, o
mecanismo realiza uma análise a partir do que foi localizado, armazenando
informações referentes ao documento ou página em uma base de dados,
identificando cada item, possibilitando a localização rápida e o acesso posterior às
informações.
4 Crawler: do inglês “rastreador”.
5 Spider: do inglês “aranha.
6 Bot: abreviação do termo em inglês “robot” (robô).
27
Na figura 7, a seguir, está um exemplo visual de como um crawler
funciona na prática. Ao acessar o endereço do site (URL inicial), o crawler encontra
as subpáginas (página 1, página 2, etc) e, através destas páginas, tenta encontrar o
restante das outras páginas do website e, assim, por diante até definir que o website
foi completamente indexado. Ao fim desse processo, o crawler ainda procura por
links externos e começa a indexá-los também, caso ainda não estejam.
Figura 7 - O crawler começa com uma URL inicial e segue viajando pela web. Fonte: Ledford (2008, p. 228).
Segundo Ledford (2008), as hiperligações ou links, para um crawler, têm
o propósito de vincular um website para outro website que contenha algo relevante
às informações publicadas no site de origem. Dessa forma, através dos links, o
crawler pode continuar seu rastreamento.
2.3.2 Classificação dos mecanismos de busca
Segundo Cancion (2009), os motores de buscas podem ser melhor
classificados nas seguintes categorias:
primários;
secundários;
28
objetivados (também conhecidos como mecanismos de buscas
verticais).
Para Ledford (2008), os mecanismos de busca primários ou principais são
aqueles mais conhecidos e que geralmente indexam a maioria dos websites
publicados na internet. Consequentemente, esses são os mecanismos de buscas
mais importantes para focar estratégias de SEM, porque são os mais utilizados
pelos usuários. Como exemplos de mecanismos de busca primários, podemos citar
o Google, Yahoo! e Bing.
Mecanismos de busca secundários, conforme explica Ledford (2008), são
voltados para públicos menores e mais concentrados em buscas regionais. Apesar
de não serem tão populares quanto os mecanismos de buscas primários, a autora
alerta que não devem ser menosprezados pelos responsáveis pelo SEM de um
website, pois podem, ainda assim, gerar alguma visitação.
Para Ledford (2008), os mecanismos de buscas objetivados são
ferramentas com um ou mais objetivos de buscas específicos, mas geralmente se
limitam a algum tema em especial. A autora ressalta que, também, é importante
otimizar um website para esses mecanismos, porém deve-se observar bem se o
conteúdo do website será relevante e consistente com o tema do mecanismo de
busca objetivado.
Como exemplos de mecanismos de buscas brasileiros objetivados,
podemos citar: o “Indeed”, que se limita a encontrar vagas de emprego; o “Buscapé”,
que realiza busca por produtos e serviços com amostragem de valores e temos,
também, o “Procurando Cursos” que realiza uma busca por quaisquer tipos de
cursos virtuais ou presenciais.
2.3.3 Algoritmos de mecanismos de busca
Para Ledford (2008), o algoritmo de busca do mecanismo de busca é sua
parte mais importante, pois tudo está baseado nele e é, através desse algoritmo,
que a busca torna-se possível.
29
A autora definiu: “um algoritmo de busca é um procedimento de solução que toma um problema, avalia uma série de respostas possíveis, e depois retorna a solução para o problema.” (LEDFORD, 2008, p. 8).
Ainda, segundo Ledford (2008), existem diversos tipos de algoritmos de
busca, entre eles o autor cita os mais comuns, conforme segue:
Busca por Lista: procura por uma única chave específica através de
uma busca linear. Esse tipo de busca retorna geralmente apenas a um
elemento, e por isso é muito restrito;
Busca por Árvore: o algoritmo procura pelos dados do mais geral ao
mais particular ou vice-versa. Nesse modelo, um resultado pode se
ramificar em muitos outros, criando uma árvore de resultados. Esse tipo
de busca é um dos mais eficientes;
Busca SQL: essa técnica permite a busca dos dados sem ser
conduzida pela hierarquia, sendo diferente da Busca por Árvore, porque o
resultado pode ser buscado a partir de qualquer subconjunto de dados;
Busca Informada: esse algoritmo procura por determinadas respostas
em conjuntos de dados específicos organizados em forma de árvore. A
autora não considera essa a melhor opção para buscar na internet;
Busca Adversarial: esse é um algoritmo difícil de usar para buscar na
internet, uma vez que ele tenta encontrar possíveis soluções para
palavras ou expressões informadas. Torna-se inviável por causa da
grande quantidade de resultados apresentados em buscas na web;
Busca por Satisfação de Restrição: a autora considera esse um dos
melhores tipos de busca, porque para encontrar a solução são analisados
conjuntos de restrições, e o conjunto de dados pode ser varrido de forma
não linear.
2.3.4 Ranking de resultados nos mecanismos de busca
Segundo Halligan e Shah (2010), o ranking é baseado em uma
combinação de dois elementos, a relevância e a autoridade. A relevância se refere
30
ao quanto um assunto ou página da web está próximo do termo pesquisado pelo
usuário do mecanismo de busca. A autoridade é medida através do mecanismo de
busca por meio de links ligados a um website, esses links estão ligados a outros
websites, que possivelmente estão citando algum conteúdo contido no website, o
mecanismo de busca avalia a autoridade das páginas que estão se conectando ao
conteúdo do primeiro site, pontuando, assim, a autoridade da página.
O seu ranking em um motor de busca determina a frequência com que as pessoas verão a sua página, o que afeta tudo: desde a sua receita até o seu orçamento de publicidade. (LEDFORD, 2008, p. 9).
Para Enge et al. (2010), medir a autoridade de um site ou página da web
vai mais além de contar o número de links que uma página tem. O mecanismo de
busca mede também quem está se ligando ao site, uma noção de quem está se
ligando a quem, que é obtido através de dados históricos dos links.
Uma página que possui poucos links, porém todos de qualidade, ou seja,
estão ligados a páginas com autoridade alta, tem mais autoridade se comparado a
uma que tenha muitos links, porém com autoridade não muito relevante. Isso se dá
devido aos poucos links a que a primeira página está ligada possuírem mais valor,
contando mais pontos para ranking da página.
2.3.4.1 O PageRank do Google
O Google possui seu próprio método de ranqueamento, conhecido por
“PageRank”, desenvolvido pelos fundadores do Google, Larry Page e Sergey Brin,
em 1998, na Universidade de Stanford.
Segundo Ricotta (2007), o “PageRank” é uma avaliação da relevância que
cada página possui para o Google, numa escala de 0 a 10. O autor explica que, para
calcular o “PageRank”, o Google considera basicamente a quantidade de links que a
página recebe, e quanto maior a relevância dos websites que enviam esses links,
maior será o “PageRank”.
Para Jerkovic (2010), o pontos fundamentais que compõem o “PageRank”
são: o número de links de entrada e a qualidade desses links. Por isso, é importante
31
dar mais valor à qualidade dos links de entrada, do que propriamente à quantidade
de links.
Na figura 8, a seguir, está um exemplo desenhado pelo engenheiro de
qualidade do Google, Matt Cutts, com números fictícios, que exemplifica a lógica de
classificação utilizada pelo “PageRank”.
Figura 8 – What’s is PageRank? Fonte: Cutts (2009).
De acordo com Cutts (2009), na figura 8, acima, os retângulos
representam websites e os números são pontos de popularidade. No retângulo
superior à esquerda existe um website muito popular com 100 pontos, que recebe
muitos links de entrada, com qualidade. As setas indicam que este website possui 2
links externos, que direcionam para outros 2 websites, indicados pelos retângulos
superior à direita e inferior à direita. Os 2 websites que recebem os links de entrada,
dividem a popularidade desses links entre si, portanto, cada website vai receber 50
pontos em popularidade, que vão contribuir para melhorar suas pontuações de
“PageRank. O mesmo ocorre com o website do retângulo inferior à esquerda.
32
Existem diversos websites que mostram a classificação “PageRank” de
uma página. Um deles é o “PRCheker” (http://www.prcheker.info). O resultado da
classificação de uma página é mostrado assim que fazemos a consulta.
Nas figuras 9 e 10, a seguir, temos dois exemplos de resultados de
classificação “PageRank”.
Figura 9 - “Pagerank” para o website de notícias G1 (http://www.g1.com.br). Fonte: PRChecker. Disponível em: http://www.prchecker.info. Acesso em 16 Mai. 2012.
A figura 9 mostra que o fator “PageRank” para o site de notícias “G1” é 7,
de um total de 10.
A figura 10, a seguir, mostra um dos poucos sites que já atingiram o
“PageRank” máximo (10).
Figura 10 - “Pagerank” para o website Twitter (http://www.twitter.com). Fonte: PRChecker. Disponível em: http://www.prchecker.info. Acesso em 16 Mai. 2012.
Para Brizzi (2008), o “PageRank” tem dois objetivos básicos que são:
indicar aos desenvolvedores do website que o mesmo está de acordo com as
33
regras e boas práticas do Google e, também, servir de fator para desempate na
classificação de websites muito semelhantes.
Segundo Teixeira (2007), o “PageRank” é diferente para cada página do
website, sendo que a página inicial (homepage) é a mais importante e geralmente
terá o “PageRank” maior. O autor explica que a página inicial de um website pode
estar com um “PageRank” igual a 4, porém outras páginas, dentro do mesmo
website, podem ter um “PageRank” igual a 0, por exemplo.
Além do conhecido “PageRank”, exclusivo do Google, existem outros
serviços que avaliam a importância de páginas web e seus links. Segundo Enge et
al. (2010), outras ferramentas competentes na avaliação de ranking são: “Alexa
Rank” (http://www.alexa.com) e “mozRank” (http://www.seomoz.org).
2.4 SEARCH ENGINE MARKETING (SEM)
Segundo Jerkovic (2010), marketing nos mecanismos de busca (Search
Engine Marketing, ou apenas SEM), refere-se à divulgação de um determinado
conteúdo através de anúncios pagos, principalmente do tipo pagos por clique (PPC).
Na figura 11, a seguir, destaca-se visualmente, a diferença entre SEM e
SEO, em um resultado de uma busca realizada no Google.
34
Figura 11 - Identificação de SEM e SEO em resultados de buscas do Google. Fonte: Google, 2012.
Na figura 11, a área identificada como SEM possui diversos links, que são
exibidos pelo Google de acordo com o termo de busca utilizado pelo usuário. Todos
estes links são pagos por clique, ou PPC, onde cada clique recebido gera uma
receita para o Google e uma despesa para o anunciante.
Nas subseções, a seguir, a partir de 2.4.1, serão abordadas algumas das
principais técnicas de otimização de websites utilizadas atualmente pelos
profissionais da área, e mais recomendadas pelos autores consultados para a
elaboração deste trabalho.
2.4.1 Links ou hiperligações
Para Ledford (2008), os links são uma ótima estratégia para atrair
visitantes para um site. Além disso, um site com links relevantes pode conquistar
35
melhores posições nos mecanismos de busca. Para a autora, os links, por se
interconectarem, são a principal rota de movimentação de tráfego na internet.
Para Enge et al. (2010), os links são uma métrica fundamental para a
classificações das páginas e, por isso, influenciam as classificações nos
mecanismos de buscas. Os autores explicam que a importância dos links tornou-se
mais popular quando o Google lançou o PageRank, comentado mais adiante. Em
resumo, cada link para uma página é como se fosse um voto de confiança para o
website.
2.4.1.1 Links naturais ou orgânicos
Segundo Enge et al. (2010), os resultados com links naturais são
extraídos pelos algoritmos de busca de seus principais índices, sendo
posteriormente classificados pelos próprios algoritmos por ordem de relevância e
popularidade.
Para Kendzerski (2011), os links naturais nas buscas obtém resultados
surpreendentes devido ao volume de buscas realizadas pelos consumidores, como
uma estratégia de marketing de médio e longo prazo. O autor destaca ainda que,
para um bom posicionamento nos links naturais, é necessário ter um bom
planejamento no momento da construção do website, aplicando corretamente
técnicas de SEO, realizando uma análise de navegabilidade proposta pelas regras
das técnicas aplicadas, posicionará seu website entre os primeiros resultados das
buscas naturais, podendo levar até 80% a mais de tráfego ao website.
2.4.1.2 Links internos
A estruturação de links internos, que levam para outros locais dentro de
uma mesmo website, está intimamente conectada com a estrutura das categorias e
seções.
36
Jerkovic (2010) explica que, websites muito grandes podem ter problemas
de paginação e, isso ocasiona um caminho quase invisível para um crawler chegar
aos links menos populares ou que estão mais distantes da página principal. O autor
recomenda neste caso, a utilização de um arquivo “sitemap.xml” para mostrar todos
os links ao crawler.
Uma das técnicas mais recomendadas para melhorar a estruturação dos
links internos é conhecida como “breadcrumbs”, que consiste em criar um caminho
em formato de links internos que mostram onde o visitante está atualmente, dentro
do website. Isso, além de ajudar o visitante na navegação interna, ainda melhora a
densidade das palavras-chave. (MARCEL, 2008).
2.4.1.3 Links externos ou de referência
A quantidade de links externos, que apontam para um único website,
influencia no posicionamento deste frente aos mecanismos de buscas e,
principalmente nos sistemas de ranqueamento.
Para Jerkovic (2010) é muito importante ter links em outras páginas, que
trazem o visitante para o website objetivo, pois isso aumenta a reputação do
website. No entanto, a popularidade e a qualidade dos links de entrada externos
também devem ser levadas em consideração, uma vez que quanto maior a
popularidade, melhor será para o website que os recebe.
2.4.1.4 Links patrocinados ou PPC (pay-per-click)
De acordo com Bacchin, G. (2007), links patrocinados, também
conhecidos como PPC (pay-per-click), é uma forma de anúncio realizada nos
resultados das pesquisas realizadas nos mecanismos de buscas, em que o
anunciante indica qual assunto ou produto relacionado ele deseja aparecer nos
resultados, e paga um valor pela quantia de cliques que seu anúncio recebeu
durante a campanha.
37
Segundo Kendzerski (2011), link patrocinado, é um investimento em curto
prazo que gera resultados imediatos com retorno garantido, gerando conversão, não
somente para o anúncio em si, mas também para outras áreas da empresa. Essa
estratégia de marketing, em curto prazo, pode ser considerada uma das melhores,
devido à possibilidade de medição dos resultados e, também, à liberdade de investir
na campanha de acordo com o capital disponível.
Em plataformas de PPC, como por exemplo, o Google Adwords, para
cada anúncio é atribuído um CPC (custo por clique), que define o valor (financeiro)
de cada clique naquele link.
Segundo Jerkovic (2010), a SEO, apesar de ter um custo financeiro
menor do que o PPC, consome mais tempo e demanda mais esforço. Já, o PPC
exige apenas que o responsável tenha recursos financeiros para investir e trará
retorno imediato desde que suas campanhas sejam bem planejadas e
administradas. Na tabela, a seguir, há um resumo das vantagens e desvantagens da
SEO e de PPC.
38
Quadro 1 - Resumo das vantagens e desvantagens da SEO e de PPC.
SEO PPC
Vantagens Menor custo (tempo);
Tráfego instantâneo;
Benefícios a longo prazo sustentáveis;
Facilidade de implementação;
Fomenta o crescimento natural do site desde que haja garantia de conteúdo atrativo;
Facilidade de administração;
Confiança;
Maior taxa de “Click-Through” (TCT).
Desvantagens Resultados iniciais tomam tempo
Pode drenar recursos rapidamente com baixas taxas de conversão
Requer um esforço maior
Os mais altos postos são destinados a quem investe mais
Não há garantias (mas provou-se eficaz em várias oportunidades)
Desconfiança histórica
Tráfego cessa quando você pára de pagar
Fonte: JERKOVIC, John I. Resumo de SEO e PPC. EUA. 2010, p 25.
Segundo Torres (2009), o Marketing de Busca ou SEM faz parte do que
se conhece como Marketing de Conteúdo. Para o autor, comumente o Marketing de
Busca e o Marketing de Conteúdo se confundem. Ele explica que Marketing de
Busca ou SEM é uma das atividades do Marketing de Conteúdo, e o SEO é uma das
técnicas do SEM.
2.5 SEARCH ENGINE OPTIMIZATION (SEO)
O termo Search Engine Optimization (SEO) ou Otimização Para
Mecanismos de Buscas, tradução nossa, é o nome atribuído à área mais técnica do
processo de otimização de um website.
39
Alguns autores, como Ricotta (2008), defendem que o SEO faz parte do
SEM, que é dividido em duas áreas principais: o SEO e Links Pagos, ou PPC.
Em SEO, são contempladas todas as variáveis que possam atribuir ao
website uma maior facilidade de ser rastreado e indexado pelos mecanismos de
busca.
SEO é um conjunto de estratégias com o objetivo de potencializar e
melhorar o posicionamento de um site nas páginas de resultados naturais
(orgânicos) nos sites de busca. (MARINO, 2011, p. 31).
Para Jerkovic (2010), o SEO pode ser visto por uma empresa como o
mais próximo de uma propaganda gratuita na internet. Diferente da publicidade
paga, o SEO só irá gerar despesas com o pagamento do salário do consultor, o que
torna o custo baixo se comparado a investimentos com publicidade. Segundo o
autor, o retorno de uma boa estratégia de SEO vem a longo prazo e pode trazer
muitos benefícios.
De acordo com Enge et al. (2010), o SEO está em evolução e, a medida
que ele evolui, conceitos e regras irão mudar ou adaptar-se a novas necessidades
que estão surgindo no mercado. Existem duas formas de raciocínio dentro da SEO,
como arte ou ciência.
No aspecto artístico, o SEO, exige intuição e criatividade dinâmica,
colaborando com novas ideias e abrindo novos caminhos.
No aspecto científico, o objetivo é a reprodução de resultados, sendo
obtidos observando, analisando e testando possibilidades, obtendo conclusões
referentes às possibilidades de aproveitamento de parte ou total dos trabalhos
desenvolvidos durante cada processo de pesquisa.
Para Enge e outros (2010), o SEO, na atualidade, pode ser categorizado
em quatro objetivos principais, sendo eles:
possibilitar o acesso dos crawlers dos mecanismos de buscas a um
website;
identificar as principais palavras usadas nas buscas realizadas pelo
público alvo, aplicando-as ao website;
oferecer um conteúdo que possa ser considerado útil pelos usuários,
que julguem ser um conteúdo digno de ser compartilhado, dando-lhes
uma boa experiência, aumentando dessa forma a chance de agregar links
de referência à página;
40
obter links de boas fontes, tendo conteúdo atrativo que possa gerar
bons links e, a partir daí, aplicar técnicas clássicas de marketing on-line.
2.5.1 Tags usadas em SEO
Os principais critérios utilizados pelos mecanismos de buscas para
classificarem um site como “bem otimizado” são, segundo Ledford (2008): seu texto,
o que engloba as palavras-chave; os links; a popularidade do site no mecanismo de
busca e, também, as tags7 ou meta tags.
De acordo com Carvalho (2009), as meta tags são parâmetros inseridos
no código fonte (HTML) da página do site que vão definir como será a exibição do
site nos mecanismos de buscas.
Na figura 12, a seguir, há um exemplo de aplicação das meta tags no
código fonte de um website com base nos exemplos do livro de Ledford (2008).
Figura 12 - Exemplo de uso das meta tags “keywords”, “description” e “title”. Fonte: elaboração dos autores, 2011.
Ledford (2008) explica que as duas meta tags mais importantes são as
tags keyword (palavra-chave) e description (descrição).
7 Tag é um comando inserido no texto de um arquivo que descreve a estrutura lógica do documento.
(CARNEIRO et al., 2008).
41
O uso correto das meta tags é um dos instrumentos para a manutenção
da otimização de um website com SEO. Para tanto é essencial conhecer cada tag e
saber como utilizá-las.
Nos subitens, a seguir, serão explicadas para que servem e como utilizar
as meta tags mostradas na figura 12 e, também, outras meta tags importantes em
SEO.
2.5.1.1 A meta tag “keywords”
Segundo Ledford (2008), na meta tag “keywords” (figura 9, linha 4), são
listadas as palavras-chave mais relevantes relacionadas com o conteúdo da página.
Podem-se colocar quantas palavras-chave quiser. Porém, de acordo com
Carvalho (2009), usar muitas palavras não garante um bom resultado, o ideal é
utilizar em média 5 palavras-chave separadas por vírgulas em cada página.
2.5.1.2 A meta tag “description”
A meta tag “description” (figura 9, linha 5) é usada para inserir uma breve
descrição do site ou do conteúdo da página.
Segundo Carvalho (2009), essa descrição não deve passar de 260
caracteres, pois é o texto que aparecerá nos resultados, naturais ou orgânicos, das
buscas que mostram o website.
Podemos constatar que, nos resultados de alguns mecanismos de busca,
o texto, logo abaixo do link da página, é retirado diretamente da tag “description”.
Já o Google, não dá muita importância para esta tag e prefere retirar a
descrição diretamente do texto da página, focando no fragmento de texto mais
próximo da palavra-chave principal. A esta técnica dá-se o nome de “snippet”
(fragmento). No entanto, o Yahoo!, captura o texto do link diretamente da tag
“description”. (LEDFORD, 2008).
42
2.5.1.3 A tag “title”
Outra tag muito importante é conhecida como Title (figura 9, linha 6) no
termo em inglês, que significa Título.
Ledford (2008) explica que a tag Title é usada no título do site e que
sempre que o usuário acessar à página poderá ler esse título no alto da página do
navegador. A autora comenta que, esta tag é muito importante para qualquer site,
porque os crawlers usarão a tag Title como principal recurso para determinar o título
da página que será apresentado nos resultados das buscas futuramente. Ela
comenta que se pode aproveitar a tag para inserir palavras-chave que indicam com
mais clareza qual o tipo de conteúdo da página e, também, recomenda que o
tamanho ideal da tag varia em torno de 60 a 65 caracteres.
2.5.1.4 A tag “H”
Segundo LedFord (2008), as meta tags “H”, são utilizadas para definir os
cabeçalhos do website, podendo existir seis níveis de cabeçalhos diferentes,
iniciando com “H1” até “H6”, formando uma estrutura organizacional hierárquica.
Os cabeçalhos definidos com meta tags “H” representam informações
importantes sobre o conteúdo da página, nele podem ser utilizadas palavras-chave
importantes. Os crawlers dos mecanismos de busca, consideram o texto contido no
cabeçalho, da mesma forma que avaliam a relação entre cabeçalho e o texto ligado
a ele.
De acordo com Jerkovic (2010), as meta tags “H1”, estão sendo usadas
por muitos webmasters, pois acreditam que os mecanismos de buscas dão
prioridades a elas. Quando os mecanismos identificam uma quantidade exagerada
dessas tags, iniciam rapidamente uma técnica de “contra-ataque” para inibir o seu
uso.
43
Para LedFord (2008) alguns Webmasters usam uma técnica para enganar
os crawlers com ajuda do CSS8, fazendo com que o crawler identifique mais
cabeçalhos do que existem realmente na página, a punição imposta pelos
mecanismos de busca será uma baixa colocação no PageRank.
2.5.1.5 A tag “canonical”
Para evitar problemas com conteúdo duplicado, Marcel (2009) descreve
de como se deve proceder na hora de criar esse conteúdo, caso seja realmente
necessário tê-lo no site e também se o website possui várias entradas principais,
como mostrado na figura 13. O autor explica que se deve usar a tag “Canonical”,
também conhecida como “canonical link element”.
Figura 13 - Exemplo de site que possui a página inicial acessada por mais de uma url. Fonte: Marcel, 2009.
Figura 14 - Exemplo de utilização da tag “canonical” em um site. Fonte: Marcel, 2009.
8 As Folhas de Estilo em Cascata (CSS - «Cascading Style Sheets») consistem num mecanismo
simples para adicionar estilo (como sejam tipos de letra, cores ou espaçamento) a documentos web. (W3C.org, 2008).
44
Segundo Marcel (2009), a tag “canonical” deve ser usada entre as tags
<head> e </head> no cabeçalho da página com conteúdo duplicado. Na figura 14, é
exemplificado o uso da tag no código fonte de um website.
2.5.1.6 Meta tags “nofollow” e “noindex”
Em SEO, existem algumas meta tags que são exclusivamente usadas
para dar instruções ao crawler se páginas podem ou não serem indexadas e links
podem ou não serem seguidos, são elas:
meta tag “follow”: indica ao crawler que ele deve seguir a página ou o
link;
meta tag “nofollow”: indica que o crawler não deve seguir a página ou o
link;
meta tag “index”: permite que o crawler deve indexar a página;
meta tag “noindex”: impede que o crawler indexe a página.
Segundo Enge et al. (2010), “index” e “follow”, são os padrões utilizados
pelos mecanismos de buscas, pois partem do princípio básico que qualquer página
dever ser indexada (index) e, todo link deve ser seguido (follow). Portanto, a
utilização das meta tags “index” e “follow” é desnecessária.
Essas meta tags podem ser incluídas no cabeçalho HTML de qualquer
página do website da seguinte forma: <meta name="robots" content="metatag" />.
A meta tag “nofollow” é útil quando precisamos referenciar algum outro
website que não temos controle ou não confiamos em seu conteúdo. Em casos
como, uma referência a um website, que pratica alguma atividade ilegal, por
exemplo, ao precisar mostrar esse website dentro de um artigo sobre “venda de
armas ilegais”, é essencial o uso do “nofollow”, para que o website de origem, em
que se está publicando o artigo, não seja prejudicado na classificação frente aos
mecanismos de buscas, ao ser vinculado ao website de conteúdo ruim ou ilegal.
(LEDFORD, 2008).
45
A meta tag “nofollow” é representada pela instrução <rel=”nofollow”>
atribuída ao link, como no exemplo: <a href=”http://www.enderecolinkexterno.com.br”
rel=”nofollow”</a>.
A meta tag “noindex” é utilizada para impedir que o mecanismo de busca
faça a indexação de determinada página do website.
Enge et al. (2010) explica que o uso da meta tag “noindex” não impede
que a página seja vista pelo crawler, apenas serve para dizer ao algoritmo do
mecanismo de busca que não indexe esta página para mostrar nos resultados de
buscas. Ou seja, os links de uma página com a instrução “noindex”, ainda podem ser
seguidos e rastejados caso não possuam o atributo “rel=nofollow”.
A meta tag “noindex” é usada da seguinte forma: <meta name="robots"
content="noindex" />. Esta instrução deve ser introduzida no cabeçalho de cada
página conforme necessidade.
2.6 PALAVRAS-CHAVE, TEXTOS E IMAGENS
A escolha das palavras-chave e, a otimização de textos e imagens, são
etapas muito importantes, e devem ser feitas sem pressa porque, depois de
publicadas, levará mais tempo para modificar este tipo de otimização.
2.6.1 Escolha de palavras-chave
Qualquer campanha de otimização, seja utilizando SEM ou SEO, tem
como principal atividade inicial a escolha das melhores palavras-chave. É através
dessas palavras-chave que os mecanismos de busca vão relacionar determinado
website com o resultado da pesquisa feita pelo usuário.
Usar palavras-chave eficientes e populares que estão diretamente
relacionadas ao conteúdo do site ajuda a posicionar melhor o site nos resultados das
buscas.
46
As palavras-chave são as palavras usadas para se catalogar, indexar e encontrar o seu site. (LEDFORD, 2008, p. 59).
Para iniciar a escolha das palavras-chave, principalmente para websites
novos, Ledford (2008), dá algumas dicas, a seguir:
inicialmente, algumas palavras-chave, podem ser definidas de acordo
com o foco do website que está sendo otimizado;
a autora também recomenda, uma consulta aos websites da
concorrência, para analisar seu código-fonte e visualizar quais as
palavras-chave utilizadas;
outro fator importante, para definir palavras-chave, são as palavras que
o cliente utiliza para tentar encontrar um produto ou serviço que este
website oferece. Neste caso, é possível perguntar aos clientes, o que eles
digitariam se estivessem procurando o conteúdo que o website a ser
otimizado oferece.
Para Valdes (2007), uma forma de descobrir algumas palavras-chave
úteis para um site é se perguntar “Quais palavras usaríamos em um mecanismo de
busca para encontrar a informação que desejamos?”.
Existem algumas ferramentas muito úteis na internet que ajudam o
responsável pela otimização do site a escolher as melhores palavras-chave.
Para obter palavras-chave no Brasil atualmente, recomenda-se a
ferramenta Google Adwords, pois, de acordo com uma pesquisa da Serasa
Experian, representada na figura 15, a seguir, o Google possui mais de 90% do
mercado de buscas feitas no Brasil. Essa porcentagem indica a força do mecanismo
de busca Google neste país e, por isso, as palavras-chave indicadas por ele
inevitavelmente são mais populares e terão maior abrangência.
47
Figura 15 - Google Brasil segue na liderança dos buscadores no país. Fonte: Serasa Experian Hitwise, 2011.
Para efeito de demonstração, fez-se uma pesquisa por palavras-chave
para o website proposto neste trabalho. Nas tabelas 5 e 6, temos uma demonstração
de resultado da pesquisa, utilizando o endereço web (URL) do site e as palavras-
chave “seo” e “search engine marketing”, respectivamente.
Tabela 5 - Ferramenta de Palavras-chave do Google Adwords. Correspondência de
palavras-chave para o endereço www.sem.eti.br.
Palavra-chave
Concorrência Pesquisas globais mensais
Pesquisas locais mensais (Brasil)
o que é seo 0,13 9140000 165000 seo o que é 0,13 9140000 165000 o que seo 0,13 9140000 165000 o que é hospedagem
0,86 2240000 1830000
o que é backlink
0,07 673000 5400
o que é seo search engine optimization
0,27 450000 5400
seo google 0,24 165000 2900 seo wordpress
0,02 135000 3600
otimização 0,18 74000 74000 Fonte: Google Adwords. Ferramenta de Palavras-chave. 2012.
48
Tabela 6 - Ferramenta de Palavras-chave do Google Adwords. Correspondência de
palavras-chave para os termos “seo” e “search engine marketing”.
Palavra-chave Concorrência Pesquisas globais mensais
Pesquisas locais mensais (Brasil)
Sem 0,09 16600000 11100000
otimização seo 0,46 1900 1600
consultoria seo 0,35 6600 1600
seo search engine optimization
0,31 450000 4400
livro seo 0,19 720 590
livros seo 0,2 590 590 como fazer seo 0,15 480 390
curso seo 0,66 8100 3600
seo e sem 0,13 1000 390
search marketing 0,19 246000 2400 seo otimização 0,46 1900 1600
Fonte: Google Adwords. Ferramenta de Palavras-chave. 2012.
Como se pode notar nas duas tabelas acima, o Google Adwords mostra
sugestões de palavras-chave de acordo com a popularidade dessas palavras dentro
do seu próprio mecanismo de pesquisa.
Cada pesquisa feita na “Ferramenta de Palavras-Chave” pode ser
refinada com diversas opções de filtros disponíveis, entre eles o país e o idioma
desejados.
O grande potencial desse tipo de ferramenta pode ser aproveitado,
usando-se palavras populares dentro dos textos de um website, o que vai lhes
proporcionar mais popularidade nos resultados de pesquisas assim que suas
páginas forem indexadas.
2.6.2 Editoração de textos para SEO
Para Torres (2009), o conteúdo em texto de um website é a parte mais
importante para a otimização. Por isso, sua qualidade deve ser prioridade.
Segundo Ledford (2008), os textos em websites são um dos elementos
mais importantes, porque as palavras-chave que estão contidas nele têm muita
49
relevância para os indexadores dos mecanismos de buscas. Essas palavras-chave
correspondem aos termos e expressões que os visitantes vão digitar nos
mecanismos de buscas, quando estão procurando por um conteúdo semelhante ao
website em questão.
Em sites de grande porte, principalmente, existem vários profissionais
envolvidos, entre eles estão jornalistas e escritores que podem desconhecer a
importância de criar um texto que seja relevante para os resultados das buscas.
Segundo Enge et al. (2010), existem alguns pontos mais importantes que
o escritor de conteúdo deve levar em consideração quando escreve na internet,
entre eles:
os mecanismos de busca procuram combinar as frases de um consulta
com as palavras-chave das páginas. Se a página não tiver palavras-chave
ou frases utilizadas nas buscas é provável que obtenha uma baixa
classificação;
como um usuário que faz uma busca pode usar qualquer frase, é uma
boa prática imaginar ou procurar saber as frases que são mais utilizadas
para aquele objetivo de resultado;
é essencial utilizar palavras-chave populares, relacionadas ao
conteúdo, no texto a ser elaborado pelo autor;
a tag “title” é o elemento mais importante da página. Em seguida, é a
tag “H1” e, depois, o texto principal.
Os autores ainda ressaltam que é importante não esquecer que o uso
excessivo de palavras-chave podem causar problemas de Spam.
2.6.3 Otimização para buscas por imagens
Segundo Enge et al. (2010) otimizar para buscas por imagens pode ser
uma estratégia muito boa porque, atualmente, poucos websites investem nesta área
por não acreditarem no seu potencial.
Os resultados de buscas por imagens, obtidos através dos mecanismos
de buscas, podem, por exemplo, ajudar o consumidor em sua decisão de compra de
50
uma televisão. A seguir, temos um exemplo do resultado da pesquisa pelo termo “tv
led 32 polegadas full hd”, através do Google.
Figura 16 - Resultado da pesquisa “tv led 32 polegadas full hd” via Google Imagens. Fonte: Google Imagens (http://www.google.com.br/images). Acesso em: 20 Abr. 2012.
Na figura 16, destacamos um dos resultados de imagem para a pesquisa
efetuada através do Google Imagens. É possível notar que, este resultado
destacado, é a imagem de uma TV de LED 32 polegadas FullHD, da loja de varejo
online Magazine Luiza. Ao clicar na imagem, o site do varejista é aberto, e existe
uma chance de que o consumidor tome sua decisão de compra neste instante.
De acordo com Enge et al. (2010) os mecanismos de buscas tem
avançado e vem investindo muito em relação as imagens, aplicando, por exemplo,
software para reconhecimento facial, que busca identificar se a imagem se trata de
um rosto, corpo ou outro tipo de forma. Estão buscando, também, a aplicação do
software para reconhecimento de caracteres, para identificar textos dentro da
imagem.
Apesar destes avanços em tecnologia, obter sucesso com a otimização
de imagens depende, também, das técnicas de SEO. Para isso, Enge et al. (2010)
dão algumas dicas de otimização:
51
é importante que, o texto, imediatamente anterior e posterior à imagem,
tenha ênfase nela, pois os mecanismos de buscas avaliam esses pontos,
assim como os visitantes;
a imagem precisa de um nome que referencie seu conteúdo, uma dica
importante é colocar alguma palavra-chave relacionada à imagem com o
atributo “alt”;
devem-se utilizar imagens de boa qualidade, porém não muito
pesadas;
colocar imagens importantes em barras de navegação, ou dentro dos
elementos de cabeçalho e rodapé, deve ser evitado, pois o mecanismo de
busca evitará indexá-la, assim como faz com as imagens dos elementos
gráficos do design do website;
se precisar usar imagens que possam estar sendo exibidas em outros
websites, devem-se mostrá-las em tamanhos diferentes dos que foram
fornecidos.
Ledford (2008) explica que, o atributo “alt”, serve para identificar imagens
no website enquanto carregam ou caso não carreguem. Além disso, ainda facilita a
leitura dos deficientes visuais, que utilizam programas de reconhecimento de texto, e
também ajudam na parte de indexação da imagem pelo crawler.
Também é recomendado utilizar o atributo “title”, em complemento ao
atributo “alt”, onde o “title” seria o título da imagem e o “alt” a descrição dela.
2.7 Recursos para a indexação do website
Existem algumas ferramentas e recursos que ajudam o crawler dos
buscadores a indexarem websites, principalmente aqueles criados mais
recentemente e que ainda não apareceram nos resultados de busca. E, também,
recursos que auxiliam na organização do website para o mecanismo de busca.
52
2.7.1 O arquivo “sitemaps.xml”
Alguns mecanismos de buscas, como Google e Yahoo!, suportam o
protocolo XML9 sitemaps. O pioneiro a implantar esse protocolo foi o Google, em
2005, em seguida, vieram Yahoo! e Microsoft.
Usando esse protocolo, é possível fornecer aos mecanismos de busca
uma listagem de todos os endereços (links) que devem ser rastreados, isto facilita a
indexação do site e agiliza a aparição dos links do site nos resultados dos
mecanismos de buscas. No entanto, não há garantia de que os links adicionados ao
sitemap serão indexados. (ENGE et al., 2010, p. 210).
Um sitemap nada mais é do que um arquivo com extensão “.xml”,
comumente nomeado como “sitemap.xml”. De acordo com Enge et al. (2010), os
sitemaps são um complemento ao crawler dos mecanismos de buscas e entre suas
vantagens estão a melhoria das classificações e mais popularidade dos links do site.
Para Enge et al. (2010) o primeiro passo é criar um arquivo “.xml” de
forma adequada como na figura 17, a seguir.
Figura 17 - Amostra do Sitemap em XML. Fonte: Sitemaps.org (2008).
9 Extensible Markup Language (XML) é uma linguagem de marcação de dados (meta-markup
language) que provê um formato para descrever dados estruturados. (FURTADO, 2000).
53
De acordo com o site Sitemap.org (2008), a tag “urlset” encapsula o
arquivo e referencia o padrão de protocolo atual. A tag “url” é a tag “pai” das
entradas de links de conteúdo. A tag “loc” indica o endereço (url) do link. A tag
“lastmod” é opcional e serve para indicar a data da última modificação do artigo do
link referenciado. As tag “changefreq” e “priority”, também, são opcionais e indicam,
respectivamente, a frequência com que o crawler do mecanismo de busca deve
revisitar o link e qual a prioridade deste link em relação aos outros.
2.7.2 O arquivo “robots.txt”
Segundo Jerkovikc (2010), todo website deve ter um arquivo “robots.txt”,
apesar de não ser obrigatório, ele é importante, através dele os mecanismos de
busca identificam se seu website deve ser rastreado ou o que não deve ser
rastreado nele, evitando que os crawlers acessem a páginas ou a subpastas não
desejadas.
A criação do arquivo pode ser realizada em qualquer editor de texto, logo
após a criação, o arquivo deve receber permissão de leitura, para que possa ser lido
pelos crawlers dos mecanismos de busca, sua localização por padrão deve ser na
pasta raiz do website não tendo exceções. Para validar se o arquivo está certo, pode
ser utilizado validador para arquivos “robots.txt” disponível na ferramenta de
administração de seu website como, por exemplo, o “Google Webmaster Tools”.
(JERKOVIC, 2010).
2.8 SPAM DE SEO
Segundo Torres (2009), o “Spam”, é o envio em massa de e-mails que
não foram solicitados ou autorizados pelos destinatários.
Esta é uma definição de spam relacionada com o e-mail marketing. Para
o marketing de buscas, o termo mais utilizado para representar a prática de spam, é
o “Black Hat”. Segundo Enge et al (2010), o spam de SEO, ou “Black Hat”, acontece
54
quando o editor de um website decide ultrapassar os limites impostos pelos
mecanismos de busca em suas diretrizes e políticas de uso.
A maioria dos mecanismos de buscas, incluindo o Google, possuem
regras muito bem definidas e penalizações automatizadas em seus scripts de
indexação de sites, que podem a qualquer momento rebaixar a posição de um
website ou mesmo excluí-lo dos resultados das buscas para sempre ou até que a
situação considerada como spam seja resolvida.
Para Marino (2011), os resultados que podem ser alcançados com a
prática de SEO podem ser muito satisfatórios, porém é preciso ter cuidado para não
abusar e ter sua otimização vista como tentativa de spam pelos mecanismos de
buscas.
2.8.1 Conteúdo duplicado
Segundo Marino (2011), o conteúdo duplicado nada mais é do que o
mesmo conteúdo aparecendo na mesma URL, ou seja, no mesmo endereço web
mais de uma vez. Para a autora, isso pode prejudicar o ranqueamento do site, uma
vez que poderá ser interpretado como prática de spam.
Ledford (2008) ressalta que o conteúdo copiado de outro website, mesmo
que seja devidamente informado a fonte de pesquisa, pode causar sérios problemas
no posicionamento dentro dos motores de busca ou até mesmo a exclusão dos
resultados. Os mecanismos de buscas dão prioridade sempre ao conteúdo exclusivo
e mais recente. A autora ainda explica que os motores de busca procuram por
quatro tipos de conteúdo duplicado no momento em que estão indexando novos
websites, são eles:
artigos altamente distribuídos: são os artigos distribuídos
gratuitamente pelo autor para publicação livre. Esses aparecem em
muitos websites que tratam do assunto abordado no artigo, e certamente
obter resultados de busca com o mesmo artigo em sites diferentes não é
vantajoso para o usuário;
55
descrições de produtos em lojas virtuais: a descrição de um
determinado produto frequentemente é exatamente a mesma em
qualquer loja virtual que o comercializa (figuras 4 e 5), uma vez que
geralmente essa descrição é fornecida pelo próprio fabricante. Inclusive o
título, na maioria das vezes, é o mesmo. Segundo Ledford (2008), essas
descrições de produtos são ignoradas pelos crawlers porque seria
impossível indexar alguns sites de e-commerce;
páginas duplicadas: segundo a autora, não é útil para o usuário clicar
em um resultado de busca e descobrir que já viu o mesmo conteúdo em
outra página. As páginas duplicadas congestionam a rede e reduzem o
posicionamento do website;
conteúdo copiado de outros websites: alguns editores de websites
copiam parcial ou integralmente um conteúdo de outro website e
formatam de forma a parecer que se trata de um conteúdo original do seu
site.
Abaixo, estão exemplos dos resultados de uma busca pelo livro “Seo:
Otimização para Mecanismos de Busca”, nas lojas virtuais Saraiva e Submarino,
respectivamente, na ordem:
Figura 18 - Página de resultado da busca interna pelo livro “Seo: Otimização para Mecanismos de Busca” no site da Livraria Saraiva. Fonte: Loja virtual Saraiva, disponível em www.saraiva.com.br, 2011.
56
Figura 19 - Página de resultado da busca interna pelo livro “Seo: Otimização para Mecanismos de Busca” no site do Submarino. Fonte: Loja virtual Submarino, disponível em www.submarino.com.br, 2011.
Nas figuras 18 e 19, verifica-se que, além do título do produto ser
praticamente igual, a descrição é a mesma.
Páginas com títulos repetidos e versões diferentes do mesmo conteúdo,
como, por exemplo, quando a página possui uma versão para impressão que mostra
o mesmo texto, também são consideradas duplicatas. Como comentado
anteriormente, no caso específico de produtos de lojas virtuais, os crawlers não
penalizam o conteúdo, apenas o ignoram.
Enge et al. (2010) comenta que praticantes de spam, utilizando códigos
específicos, extraem conteúdo de fontes legítimas, misturando as palavras e
mudando o contexto para atrair mais visitas ao próprio site provenientes dos
resultados das buscas.
Geralmente, o algoritmo de um mecanismo de busca, ao encontrar
conteúdos duplicados, tentará filtrar qual a versão original para indexar, e o restante
será apenas descartado, como explica Enge et al. (2010). Porém, em alguns casos,
podem ocorrer penalizações ao invés de apenas o descarte do conteúdo.
Um exemplo de um tipo de website que corre o risco de ser penalizado,
desde o rebaixamento de posição até o banimento, é aquilo que Enge et al. (2010)
chamam de website “afiliado fraco”. Os autores explicam que esse tipo de website
promove a venda de produtos ou serviços de outras empresas em troca de uma
comissão em dinheiro por cada ação. Geralmente, nesses websites não há muito
conteúdo além da descrição dos produtos.
Websites do tipo “afiliado fraco”, com conteúdo duplicado e pouca ou
nenhuma informação exclusiva, não são interessantes aos mecanismos de busca
porque o visitante vai preferir o link do website que vende efetivamente aquele
produto ou serviço anunciado. A saída para esse tipo de website seria publicar
opiniões ou avaliações exclusivas do que está divulgando.
57
A regra básica para evitar as penalizações por duplicidade é manter o
website com um conteúdo atualizado e rico, no sentindo de exclusividade e
qualidade das informações. Se houver a necessidade de duplicar conteúdo basta
utilizar as meta tags “canonical” ou “NoIndex” e “NoFollow” nas páginas duplicadas,
como já explicado neste trabalho.
2.8.2 Práticas consideradas como spam de SEO
Além do problema do conteúdo duplicado, abordado anteriormente na
seção 2.8.1, existem diversas outras práticas que são arriscadas por serem
consideradas como spam pelos motores de busca.
Segundo Ledford (2008), o spam de SEO, também chamado de
spamdexing (spam de índices), é praticado de diversas formas e existem dezenas
de técnicas utilizadas por editores de sites com a falsa impressão de que irão
enganar o crawler do mecanismo de busca e melhorar a posição do seu site em
busca de resultados rápidos. A autora cita diversas dessas técnicas:
I. links transparentes: são links na página que possuem a mesma cor
do fundo da página, por exemplo, uma página com fundo branco e links
na cor branca, ficam invisíveis aos usuários apenas com o intuito de que o
crawler capture o link e inclua no índex do mecanismo de busca;
II. links escondidos: links que comumente ficam escondidos atrás de
imagens no website sem “linkar” a imagem, apenas com o propósito de
ser rastreado pelo mecanismo de busca, mas não aparecer para o
visitante;
III. links enganadores: são os links com o objetivo de enganar o usuário,
levando a um destino diferente daquele mostrado na barra de status do
navegador;
IV. links insuspeitos: links representados por gráficos nas dimensões 1x1
pixels, que também não aparecem a olho nu na página;
V. enchimento de palavras-chave: repetir palavras-chave várias vezes
no conteúdo de uma mesma página ou em suas meta-tags;
58
VI. páginas-corredor (ou páginas gateway): páginas com apenas um
link do tipo “Clique aqui para entrar”;
VII. sites copiadores: como comentado anteriormente, são sites que têm
seus conteúdos copiados de outros sites;
VIII. páginas geradas automaticamente: são sites com páginas geradas
por programas específicos que pegam o conteúdo de outro site para criar
novas páginas automaticamente;
IX. links em pontuação: é o ato de colocar hiperlinks em pontuações
finais de frases para os mecanismos de buscas indexarem mais links do
que os visitantes do site podem perceber;
X. cloaking: técnica usada para criar uma versão otimizada da página
somente com o propósito de aparecer nos motores de busca, porém essa
página fica invisível ao visitante;
XI. cruzamento excessivo de links: criar vários domínios para fazer links
de uma página para outra com o mesmo conteúdo;
XII. texto escondido: da mesma forma que é feito com o link escondido, o
texto é colocado com a mesma cor do fundo da página;
XIII. conteúdo duplicado: como comentado anteriormente, o conteúdo
duplicado é considerado uma tentativa de enganar o crawler, tentando
informar a ele que o site possui mais conteúdo do que realmente tem;
XIV. páginas apenas com links e Fazenda de Links: são páginas criadas
para ampliar artificialmente a estratégia de links. Esse tipo de página deve
ser evitada. A única exceção é o mapa do site, que possibilita um meio
mais rápido de encontrar páginas no site;
XV. spamblogs: são blogs criados com os mesmos objetivos de quem usa
programas criadores de páginas automaticamente. Esses softwares
geram diversas postagens no blog de forma automática;
XVI. páginas de redirecionamento: são páginas criadas no site que fazem
um redirecionamento para a página principal informando ao usuário que
aguarde alguns segundos para ser redirecionado. Esta técnica é utilizada
para otimizar essa página de redirecionamento com o intuito de fazê-la
aparecer nos mecanismos de buscas primeiro do que a página principal;
XVII. sequestro de página: quase a mesma coisa que página duplicada.
Acontece quando o editor copia uma página inteira de outro site apenas
59
para ser vista pelos indexadores, mas quando o usuário acessa será
encaminhado para a página verdadeira.
Para Ledford (2008), praticar spam de SEO em um website tem apenas
uma vantagem temporária, mas, depois, a penalização pode ser severa. Não é
apenas o risco de ser penalizado pelos mecanismos de buscas, mas também ser
mal visto pelos visitantes. Segundo a autora, com a facilidade que existe hoje para a
pessoa ir a outro site similar, e com tantos sites com conteúdos parecidos, não teria
sentido praticar spam no próprio site. Primeiro, porque o visitante não quer e não
gosta de ser enganado, no caso da página redirecioná-lo para outro lugar, mas tê-lo
atraído até ali com uma promessa de que encontraria o que está procurando. À
medida que o visitante percebe práticas abusivas no website, ele pode formar uma
lembrança negativa do website e, provavelmente, não voltará a visitá-lo.
É melhor ter um conteúdo único, bem organizado e fácil de ser
encontrado, respeitando todas as normas acerca das estratégias de Search Engine
Marketing.
Ledford (2008) recomenda seguir algumas ações para evitar o spam de
SEO, entre elas: exibir um conteúdo relevante e único; usar os links de modo
apropriado; manter o site agradável tanto para o indexador quanto para o usuário;
não ficar obcecado com a posição do site nos mecanismos de buscas.
2.9 PLANEJAMENTO DAS SOLUÇÕES
De acordo com Ledford (2008), é necessário criar um planejamento de
otimização para os motores de busca antes mesmo de criar o site, pois isso irá
ajudar a definir os objetivos e as estratégias de SEO que serão aplicadas no
decorrer do processo de criação do website. A autora explica que esse plano
ajudará a visualizar com mais clareza quais as áreas deverão ser focadas num
determinado momento, pois os mecanismos de busca estão em constantes
mudanças, o que torna o planejamento essencial, uma vez que pode ser necessário
mudar o foco repentinamente por consequência de alterações nas diretrizes técnicas
60
dos mecanismos de buscas ou até mesmo na política de indexação e exibição dos
websites.
Para Enge et al. (2010), nem sempre é possível planejar as estratégias de
publicidade em mecanismos de busca antes de criar o site. Dessa forma, os autores
explicam que muito provavelmente o site vai necessitar do auxílio de um profissional
de SEO quando já estiver em funcionamento.
Mesmo que um website seja posto em funcionamento sem um
planejamento de otimização adequado, ele aparecerá nos resultados dos
mecanismos de buscas depois de algum tempo, porém muito provavelmente entre
as últimas posições de qualquer resultado de busca. O ideal para o website é estar
posicionado entre as três primeiras páginas de resultados (SERPs). Dificilmente uma
pessoa passa da terceira página dos resultados para encontrar o que procura,
portanto os sites que estão nas primeiras páginas recebem o maior tráfego.
(LEDFORD, 2008).
2.9.1 Processo de planejamento
Enge et al. (2010) explicam que os aspectos iniciais do desenvolvimento
de website otimizado para mecanismos de buscas são:
montar um plano de SEO (Search Engine Optimization);
realizar uma auditoria técnica de SEO no site;
definir uma linha referencial para medir resultados e o progresso.
Segundo Torres (2009), otimizar o conteúdo de um website não é apenas
aplicar as técnicas de SEO e deixar que os mecanismos de buscas tragam
visitantes. A idéia é ter um conteúdo original e relevante para o visitante, que seja
útil de fato para ele. O autor explica que é preciso pensar como o
visitante/consumidor e tentar imaginar o que a pessoa desejava encontrar no
momento em que chegou ao website. Para ele, o primeiro passo é planejar.
61
3 DESCRIÇÃO DO MÉTODO
Neste capítulo, apresentam-se a descrição sobre o método de pesquisa
utilizado, caracterizando-o. Também detalham-se quais os objetivos deste trabalho
de pesquisa e qual o planejamento que se deseja para atingir estes objetivos,
abordando as delimitações do projeto.
3.1 TIPO DE PESQUISA
No presente trabalho, a pesquisa realizada é a pesquisa aplicada.
Segundo Silva e Menezes (2005), esse tipo de pesquisa tem a finalidade de originar
conhecimento direcionado a melhoria ou solução de dificuldades ou interesses
específicos reais.
Para fazer comprovação dos resultados das técnicas, faremos coleta de
dados e análise estatística desses dados. Para Silva e Menezes (2005), “a coleta de
dados estará relacionada ao problema, à hipótese ou aos pressupostos da pesquisa
e objetiva obter elementos para que os objetivos propostos na pesquisa possam ser
alcançados.”.
Será feito uso de pesquisa aplicada por ser a que mais se encaixa no
escopo do trabalho, as técnicas estudadas serão posteriormente aplicadas ao blog
para que se possa avaliar a evolução da posição do blog nos mecanismos de busca,
e avaliar, também, a eficiência das técnicas usadas.
3.2 ETAPAS METODOLÓGICAS
O processo de pesquisa e desenvolvimento do projeto pode ser
visualizado no fluxograma da figura 20, a seguir:
62
Figura 20 - Fluxograma da metodologia de desenvolvimento do trabalho. Fonte: Elaboração dos autores, 2011.
As etapas representadas no fluxograma são:
1 – pesquisa e estudo das tecnologias existentes;
2 – desenvolvimento da revisão bibliográfica;
3 – criação do blog;
4 – alimentação do blog com artigos relacionados ao assunto;
5 – coleta das estatísticas do blog sem otimização;
6 – aplicação das técnicas de SEM ao blog;
7 – coleta das estatísticas após a otimização com as técnicas SEM;
8 – coleta das estatísticas de evolução por períodos;
9 – análise dos dados (comparação).
3.3 DELIMITAÇÕES
O trabalho de otimização com SEO, segundo Jerkovic (2010), só agrega
valor a longo prazo. Dessa forma, não será possível mostrar grandes resultados da
aplicação das técnicas de SEO nesta pesquisa, no sentido da evolução de visitações
ao blog, porém serão mostrados todos os benefícios atingidos no período.
Um dos objetivos deste trabalho é disponibilizar uma fonte rápida e
completa de pesquisa e conhecimento no campo no Marketing de Conteúdo e
63
Marketing de Busca para a web. Para que possamos focar na pesquisa e
demonstração de cada função e seu resultado, não abordaremos em princípio:
criação/desenvolvimento de ferramentas ou novas técnicas;
fundamentação teórica e explicação/exemplificação acerca de técnicas
publicitárias como Banners e E-mail Marketing, entre algumas outras
formas tradicionais de marketing na web;
detalhamento de todas as funções das ferramentas auxiliares que
serão utilizadas;
publicidade em redes sociais e exemplificação de uso de tecnologias
auxiliares oferecidas por algumas redes sociais.
64
4 DESENVOLVIMENTO DA PROPOSTA
Este capítulo destina-se ao detalhamento da proposta de solução para o
problema exposto na seção 1.1 deste trabalho e, também, introduz as ferramentas
que vão servir de base para a elaboração do projeto proposto neste trabalho, além
dos resultados obtidos.
4.1 DETALHAMENTO DA SOLUÇÃO
A proposta do presente trabalho é criar, publicar e otimizar um website em
formato de blog para demonstrar os benefícios do uso do marketing voltado para os
mecanismos de busca mais populares do país.
Através da publicação de conteúdo de qualidade e da aplicação de
técnicas de SEM, espera-se obter dados estatísticos para análise comparativa neste
trabalho.
Figura 21 - Fluxograma da proposta de solução. Fonte: Elaboração dos autores, 2012.
65
No fluxograma da figura 21, está organizado o método de trabalho para a
solução proposta. A seguir, são explicadas as etapas dos processos mostrados
anteriormente:
criar blog sem.eti.br: essa é a etapa inicial do projeto. A criação de
um website no formato de Blog. Este processo também envolve o
desenvolvimento do design gráfico do site e a escolha do domínio
adequado;
alimentação do blog com artigos relacionados ao assunto
estudado: a partir daqui, o blog começa a receber artigos escritos pelos
autores deste trabalho ou citados de fontes bibliográficas conhecidas;
coleta das estatísticas através do Google Analytics antes da
otimização: nessa etapa, serão capturadas as estatísticas obtidas com o
blog publicado, porém sem ter passado ainda pela otimização através do
SEM;
Otimização do blog usando técnicas de Search Engine Marketing
(SEM): essa é a etapa em que será feita toda a otimização para os
mecanismos de busca conforme foi abordado neste trabalho. Criação de
um sitemap, análise e introdução de palavras-chave, criação e ou
atualização das meta-tags, otimização de velocidade (pagespeed) etc;
coleta das estatísticas através do Google Analytics depois da
otimização: depois do processo de otimização, começam a ser
monitoradas as estatísticas pós-otimização para análise futura;
análise dos dados coletados: todos as estatísticas obtidas serão
analisadas e comparadas com cada processo de otimização executado,
avaliando os benefícios alcançados com o uso das técnicas de SEM.
A partir da proposta do trabalho, podemos referenciar as ferramentas
mais importantes que serão utilizadas:
I. plataforma open-source de blogs „Wordpress‟;
II. ferramenta de estatística “Google Analytics”.
Open Source é um conceito de distribuição de software, que
estabelece como fundamentais, os princípios de desenvolvimento
66
compartilhado, distribuição na forma de código fonte e licenciamento gratuito. Qualquer trabalho desenvolvido em Open Source pode ser
modificado para atender novas necessidades desde que o trabalho derivado seja disponibilizado a todos, também de forma gratuita. (LEITE, 2005).
Levando em consideração a definição de Open Source (código aberto), a
decisão foi utilizar este tipo de ferramenta devido à liberdade de alterar o código-
fonte do sistema conforme a necessidade. Como o SEO, um dos processos do SEM,
é basicamente a otimização de parâmetros e tags diretamente no código-fonte do
site, o código aberto mostrou-se a alternativa ideal para esse processo, além da
vantagem de ser gratuito.
4.2 FERRAMENTA DE PUBLICAÇÃO DE CONTEÚDO
Para a publicação de conteúdos para a experiência de otimização do
website, decidiu-se utilizar a ferramenta de código aberto “Wordpress”, por ser
amplamente utilizada na internet para publicação de conteúdos como textos,
arquivos e vídeos e, também, por atender a todas as necessidades que o projeto vai
exigir para a aplicação da solução proposta.
Segundo Torres (2009), o “Wordpress” é um software livre com uma vasta
documentação e centenas de programadores atualizando-o constantemente. O autor
conta que a ferramenta é usada por grandes organizações como, por exemplo, no
site do jornal norte-americano “The New York Times”, como mostrado na figura 22.
67
Figura 22 - Site do jornal norte-americano “The New York Times” criado com Wordpress. Fonte: The New York Times. Disponível em: http://www.nytimes.com. Acesso em 09 Abr. 2012.
O “Wordpress” está traduzido em diversos idiomas, incluindo o Português
do Brasil, e pode ser baixado gratuitamente no site do projeto
(http://br.wordpress.org).
Entre suas vantagens, pode-se destacar, segundo o site oficial do projeto,
que o sistema é compatível com mais de 17 mil complementos, conhecidos pelo
termo inglês plugin, que são facilmente baixados e instalados através do painel
administrativo da plataforma em poucos minutos, bastando, na maioria das vezes,
apenas uma pequena intervenção do usuário no que diz respeito à configuração do
complemento para adequá-lo ao seu gosto.
O “wordpress”, também, disponibiliza gratuitamente, através de um
repositório colaborativo, quase 1,5 mil temas visuais com o intuito de facilitar ainda
68
mais a publicação de um blog, restando ao usuário menos exigente apenas escolher
o tema para iniciar a publicação dos seus artigos na internet.
4.3 GOOGLE ANALYTICS
Segundo Carneiro et al. (2008), para melhorar cada vez mais a
otimização do site com as técnicas de SEM e SEO, uma ferramenta de Web
Analytics que analisa logs de acesso deverá ser usada, principalmente para definir
ou modificar objetivos.
Segundo Enge et al. (2010), muitas empresas de hospedagem fornecem
soluções de análise da web, mas que são limitadas. Para os autores, existem
ferramentas muito mais completas como as citadas abaixo:
Google Analytics (http://www.google.com/analytics)
Omniture (http://www.omniture.com)
Core Metrics (http://www.coremetrics.com)
Unica Affinium NetInsight (http://netinsight.unica.com)
Webtrends (http://www.webtrends.com)
Yahoo! Web Analytics (http://web.analytics.yahoo.com)
Para analisar o tráfego e outros parâmetros importantes relativos às
visitas e popularidade do site deste trabalho, será utilizado o “Google Analytics”, pelo
fato de ser completamente gratuito e estar traduzido para português.
Segundo Jerkovic (2010), o “Google Analytics”, é uma opção perfeita para
todas as exigências de análise da web pela maioria dos profissionais. Para o autor,
um dos maiores benefícios da ferramenta “Analytics” é a integração com o “Google
Adwords” e o “Google Adsense”.
Na ferramenta “Google Adwords”, é possível inclusive vincular o painel do
“Google Analytics” para que fique mais prático e rápido acompanhar as estatísticas
do website e comparar se as campanhas criadas no “Adwords” estão dando o
retorno esperado.
69
Segundo Torres (2009), o “Google Adwords” é uma ferramenta web
criada pelo Google para facilitar a publicação e administração de campanhas
publicitárias no próprio buscador da empresa e mais recentemente em portais de
grande visibilidade na internet. O autor comenta que devido ao uso massivo do
mecanismo de busca do Google, no Brasil, a ferramenta “Google Adwords” é um dos
meios com melhores resultados na veiculação de publicidade on-line no país.
Segundo Jerkovic (2010), o “Google Adsense” é um programa de
publicação de anúncios que permite aos donos de websites exibirem os anúncios da
ferramenta “Google Adwords” e serem pagos por cada clique de acordo com uma
quantia pré-definida.
4.4 GOOGLE WEBMASTER TOOLS
Através da ferramenta “Google Webmaster Tools”, é possível cadastrar os
arquivos “Robots.txt” e “Sitemaps.xml” para facilitar a indexação do website pelo
crawler do Google.
O “Webmaster Tools” permite que sejam enviados mais de um arquivo
“sitemap.xml”, o que aumenta mais o controle de indexação que o webmaster do
website possui.
Figura 23 - Exemplo de informações sobre Sitemaps do Google Webmaster Tools. Fonte: Google Webmaster Tools. Acesso em 25 Abr. 2012.
70
Como mostrado na figura 23, a opção Sitemaps da ferramenta exibe os
arquivos “sitemaps.xml” que já foram enviados e detalhes sobre a quantidade de
páginas que foram indexadas. Nota-se, também, que é possível ver a última vez que
o arquivo foi processado e avisos em caso de erros no processamento do arquivo.
Para Torres (2009), o “Google Webmaster Tools” é uma importante
ferramenta que permite visualizar como o crawler do Google está indexando o
website e se houve algum erro durante o processo.
Na ferramenta, também é possível acompanhar as estatísticas do
desempenho do website nos resultados das buscas no Google e verificar a
quantidade de links internos e externos do website.
Figura 24 - Exemplo de estatística para consultas de pesquisa do Google Webmaster Tools. Fonte: Google Webmaster Tools. Acesso em 25 Abr. 2012.
Na figura 24, está um exemplo de estatísticas de consultas no Google
para um website que está autenticado com a ferramenta “Webmaster Tools”. Com
essa estatística, é possível verificar a quantidade de consultas realizadas no Google
que envolvem o website, a quantidade de vezes que algum link do website foi
mostrado nos resultados e, também, a quantidade de cliques nos links.
71
Recentemente, a ferramenta também passou a contar com a
possibilidade de análise das estatísticas da rede social “Google+”, na opção
chamada de “Métricas +1”, essa funcionalidade permite acompanhar o desempenho
do website na rede social oficial do Google.
4.5 CRIAÇÃO DO WEBSITE
O website proposto, para servir de exemplo do que foi apresentado neste
trabalho, foi criado em formato de blog com a ferramenta “Wordpress”, conforme
explicado anteriormente, neste capítulo, e pode ser acessado através do endereço
eletrônico: “http://www.sem.eti.br”. Na figura 25, a seguir, está uma imagem
capturada da tela principal do website. O título do website, “Técnicas de SEM e
SEO”, também engloba duas palavras chaves importantes sobre o assunto.
72
Figura 25 - Site “Técnicas de SEM e SEO”, criado para o projeto deste trabalho. Fonte: Elaboração dos autores. Disponível em: http://www.sem.eti.br. Acesso em 25 Abr. 2012.
4.5.1 Escolha do nome de domínio
A escolha do nome do domínio, segundo Jerkovic (2010), deve levar em
consideração alguns fatores, entre eles: tamanho do nome, palavra-chave no nome
e nomes únicos. Segundo o autor, nomes de domínio mais curtos tendem a atrair
um tráfego mais abrangente.
Para este trabalho, procurou-se adequar as regras do tamanho do nome,
palavra-chave e, também, a regra nacional de governança da classe do domínio.
Para escolher a extensão do domínio, foi necessário consultar a lista de
DPNs (domínios de primeiro nível) para pessoa física, através do site Registro.br,
73
que é a entidade registradora oficial para domínios web no Brasil. A extensão mais
adequada foi a “.ETI.BR” que é utilizada para websites de pessoa física e/ou
profissional liberal “Especialista em Tecnologia da Informação”.
Na escolha do nome do domínio em si, que foi “sem” (abreviação de
Search Engine Marketing), respeitou-se a condição de um nome curto e com uma
palavra-chave adequada ao conteúdo do website.
4.5.2 Hospedagem do website
Para hospedar o blog deste projeto, optou-se pela contratação de servidor
de hospedagem compartilhada da empresa UOL Host.
Apesar de a hospedagem compartilhada trazer algumas desvantagens
como o próprio compartilhamento dos recursos de hardware entre vários websites, o
que poderia ocasionar uma queda de desempenho, segundo Jerkovic (2010). Mas,
optou-se por este modelo pelos seguintes motivos:
I. o website do projeto por ser muito recente tem poucos acessos no
momento e, por isso, não faz grande utilização dos recursos de hardware
do servidor;
II. a contratação de outras modalidades de hospedagens conhecidas,
como por exemplo, o servidor dedicado, tem um custo financeiro muito
mais alto;
III. a solução de hospedagem compartilhada do UOL Host, além de ter um
custo financeiro relativamente baixo, possui a localização geográfica de
“data centers” no Brasil. O que, segundo Ledford (2008), beneficia o
posicionamento do website nos mecanismos de busca do país.
Depois da contratação da hospedagem, foi instalado o sistema
“Wordpress”, porém sem adição de qualquer conteúdo ou otimização, a fim de testar
se algum crawler poderia indexar um website sem conteúdo editorial. Porém
nenhum dado no período analisado mostrou qualquer indexação ou intenção dela
nessa condição.
74
4.5.3 Criação de conteúdo para o blog
O conteúdo do blog foi centrado no tema “marketing na web”, e as
publicações se dão por meio de artigos relacionados ao tema principal.
O desenvolvimento dos textos são todos por conta dos autores deste
trabalho e procura-se seguir em cada edição os mesmos parâmetros de boas
práticas em marketing de conteúdo na web expostos aqui.
4.6 OTIMIZAÇÃO DO WEBSITE
Após a escrita de alguns artigos sobre o tema e um breve período de
coleta de estatísticas do blog sem otimização, iniciou-se o uso das técnicas de SEM
e SEO abordadas neste trabalho.
4.6.1 Implantação de meta-tags
Todas as “meta-tags” foram introduzidas no blog com a intenção de
facilitar o rastreamento do crawler dos buscadores.
75
Figura 26 - Tags e meta tags do site criado para o projeto deste trabalho. Fonte: Elaboração dos autores. Disponível em: http://www.sem.eti.br. Acesso em 25 Abr. 2012.
Na figura 26, é mostrado o detalhamento das principais “meta-tags”
utilizadas. A seguir, é comentado o propósito de cada uma de acordo com sua
referência numérica de linha na figura 26.
linha 1: a tag “url” informa qual é exatamente o endereço do website;
linha 2: a tag “author” especifica o nome dos autores;
linha 3: a tag “content-language” especifica qual o idioma do conteúdo
presente no website;
linha 4: a tag “reply-to” tem a intenção de informar qual o e-mail de
contato pelo responsável na criação do website;
linha 5: a tag “copyright” serve para avisar que o conteúdo exposto
possui direitos autorais;
linha 6: a tag “revisit-after” informa ao crawler do mecanismo de quanto
em quanto tempo, em dias, ele deve visitar o website para fazer novas
indexações;
linha 7: a tag “geo.placename” especifica qual a cidade e estado de
origem do website;
linha 8: a tag “geo.country” especifica qual a sigla do país e estado,
respectivamente;
76
linha 9: a tag “Classification” diz qual a classificação do website.
linha 10: a tag “robots” dando instrução ao crawler para não utiliza a
descrição do website a partir de diretórios de sites;
linha 11: a tag “robots” informa ao crawler que ele deve indexar e
seguir a página;
linha 12: a tag “keywords” contém algumas palavras-chave para a
página principal. Porém cada página do blog contém um conjunto
diferente de palavras;
linha 16: a tag “Content-Type” define o tipo de conteúdo e a codificação
dos textos;
linha 17: a tag “Title” traz o título da página principal. Esse título
também muda de acordo com o conteúdo de cada página;
linha 18: a tag “description” possui uma breve descrição da página
principal.
4.6.2 Criação e geração automática do arquivo Sitemap.xml
Para criar e atualizar automaticamente o arquivo “sitemap.xml”, utilizou-se
uma extensão exclusiva do sistema de blogs “Wordpress” chamada de “Google XML
Sitemap Generator”, que pode ser baixada no endereço web:
“http://wordpress.org/extend/plugins/google-sitemap-generator”.
Através da ferramenta “Google XML Sitemap Generator” que, apesar de
trazer o nome do Google, gera um arquivo compatível com a maioria dos crawlers
existentes, torna-se muito mais fácil criar e manter atualizado o “sitemap.xml”.
Dentre as várias funcionalidades da ferramenta, destacam-se: especificação de
conteúdo e tipos de páginas que podem estar no “sitemap”; definição de prioridade e
frequência de atualização por tipo de conteúdo.
A ferramenta também cria um arquivo amigável para visualização de um
resumo do arquivo “sitemap.xml” que foi gerado, como mostrado na figura 27, a
seguir.
77
Figura 27 - Arquivo “sitemap.xml” gerado para o website do projeto. Fonte: Elaboração dos autores. Disponível em: http://www.sem.eti.br/sitemap.xml. Acesso em 25 Abr. 2012.
Na figura 28, a seguir, está o mesmo arquivo “sitemap.xml” criado pela
ferramenta, porém estamos agora visualizando seu código fonte.
78
Figura 28 – Código fonte do arquivo “sitemap.xml” gerado para o website do projeto. Fonte: Elaboração dos autores. Disponível em: http://www.sem.eti.br/sitemap.xml. Acesso em 25 Abr. 2012.
Com o “Google XML Sitemaps Generator”, é possível administrar
qualquer parâmetro do arquivo “sitemap.xml” pelo painel de controle do “Wordpress”
com facilidade.
4.6.3 Criação do arquivo Robots.txt
Os crawlers verificam o arquivo “robots.txt” sempre que vão indexar algum
website. Porém nem todos os arquivos ou diretórios do website são desejáveis para
serem indexados.
Através do arquivo “robots.txt”, é possível restringir quais diretórios,
arquivos ou páginas específicas não devem ser indexados pelo crawler.
79
O “robots.txt” deve ser enviado para o diretório raiz do website e é
composto de instruções de permissão (Allow) ou negação (Disallow) de acesso.
Na figura 29, a seguir, temos a imagem do arquivo “robots.txt” criado para
o blog do projeto.
Figura 29 - Arquivo “robots.txt” criado para o website do projeto. Fonte: Elaboração dos autores. Disponível em: http://www.sem.eti.br/robots.txt.
Na figura 29, referente ao arquivo “robots.txt”, o parâmetro “User-agent: *”
indica que as instruções que o seguem devem ser respeitadas por todos os crawlers
que tentarem indexar o website.
Os parâmetros “Allow:” e “Disallow:”, respectivamente, permitem e negam
o acesso dos crawlers aos diretórios e extensões de arquivos.
4.7 ESTATÍSTICAS
A seguir, é apresentada uma série de gráficos e outros resultados de
diversas etapas do blog, mostradas por período e/ou por técnicas de otimização
utilizadas.
80
4.7.1 Indexação de páginas
A indexação das páginas do blog proposto foram acompanhadas através
do Google, desde a publicação de conteúdo a partir de 1 de janeiro de 2012.
Para Enge et al. (2010) é muito importante saber quantas páginas do
website estão indexadas, para saber se algo importante não está sendo indexado e,
também, para acompanhar o crescimento do website nos índices dos mecanismos
de buscas.
Outra utilidade para o recurso de consulta de indexação pode ser a
análise da concorrência.
A seguir, há um detalhamento dos resultados para a pesquisa
“site:sem.eti.br”10 que mostra tudo o que está indexado no mecanismo de busca a
partir do endereço (url) informado, e funciona com a maioria dos mecanismos.
Figura 30 - Resultado da consulta por páginas indexadas para o endereço “sem.eti.br” de 01 de janeiro de 2012 à 13 de março de 2012. Fonte: Google. Disponível em: http://www.google.com.br. Acesso em 25 Abr. 2012.
Na figura 30, a consulta por páginas indexadas no mecanismo de busca
Google para o endereço do website proposto não mostrou nenhum resultado. O
período escolhido foi de 01 de janeiro de 2012 até o dia 13 de março de 2012, este
10
A expressão “site:” é um operador de busca avançada do Google. Sua utilização se dá da seguinte forma: “site: endereço do site”.
81
último é o dia da criação do arquivo “sitemap.xml” e envio deste para a ferramenta
“Google Webmaster Tools”.
A seguir, a figura 31 exibe a mesma consulta anterior, porém feita no dia
14 de março de 2012, dia seguinte à criação do “sitemap.xml” e cadastro no “Google
Webmaster Tools”. Pode-se perceber que 10 páginas já estão indexadas no
mecanismo de busca Google.
Figura 31 - Resultado da consulta por páginas indexadas para o endereço “sem.eti.br” de 01 de janeiro de 2012 à 14 de março de 2012. Fonte: Google. Disponível em: http://www.google.com.br. Acesso em 25 Abr. 2012.
Na figura 32, está uma consulta para resultados de indexação do website
proposto, definida até o dia 13 de abril de 2012, exatamente 01 mês depois da
primeira indexação, chegando agora a 36 páginas indexadas.
82
Figura 32 - Resultado da consulta por páginas indexadas para o endereço “sem.eti.br” de 01 de janeiro de 2012 à 14 de abril de 2012. Fonte: Google. Disponível em: http://www.google.com.br. Acesso em 25 Abr. 2012.
O mesmo arquivo “sitemap.xml” também foi enviado para a ferramenta
“Bing Webmaster Tools”, do mecanismo de busca oficial da Microsoft, o Bing. A
ferramenta mostra uma taxa de indexação menor que a do Google. A seguir,
mostramos a diferença de indexação entre os dois mecanismos:
A figura 33, mostra a quantidade de páginas que foram enviadas para a
ferramenta “Google Webmaster Tools” e quantas foram indexadas pelo mecanismo
de busca Google, a partir do conteúdo do arquivo “sitemap.xml” criado para o
website do projeto.
83
Figura 33 - Estatística de Sitemap para o endereço “sem.eti.br”. Fonte: Google Webmaster Tools. Acesso em 09 Maio 2012.
A figura 34, a seguir, mostra que a ferramenta “Bing Webmaster Tools”,
também, recebeu 33 URLs do mesmo arquivo “sitemap.xml”.
Figura 34 - Estatística de Sitemap para o endereço “sem.eti.br”. Fonte: Bing Webmaster Tools. Acesso em 09 Maio 2012.
Agora, compararemos a quantidade de resultados que cada mecanismo
de busca retorna para a pesquisa de páginas indexadas.
Na figura 35, temos os resultados do Google coletados no dia 09 de maio
de 2012.
84
Figura 35 - Estatística de indexação para o endereço “sem.eti.br”. Fonte: Google. Disponível em: http://www.google.com.br. Acesso em 09 Maio 2012.
A figura anterior mostra que o mecanismo de busca Google retornou 108
resultados para a pesquisa “site:sem.eti.br” que tem como objetivo mostrar tudo que
foi indexado pelo mecanismo.
Na figura 36, a seguir, está a captura dos resultados feita também no dia
09 de maio de 2012, no mecanismo de busca Bing, em que apenas 20 resultados
foram exibidos.
85
Figura 36 - Estatística de indexação para o endereço “sem.eti.br”. Fonte: Bing. Acesso em 09 Mai. 2012.
Essa diferença de resultado provavelmente aconteceu por causa da
diferença entre os algoritmos do crawler de cada mecanismo de busca.
Aqui, fica ressaltada a importância da comunicação com os mecanismos
de busca, principalmente no envio do arquivo “sitemap.xml” para informar ao crawler
do mecanismo que ele deve indexar a website em sua base de dados.
4.7.2 Visitas e fontes de tráfego
O trabalho de otimização com SEO só agrega valor ao longo prazo, por
isso não será possível mostrar grandes resultados da aplicação das técnicas de
SEO nesta pesquisa por causa do curto período.
86
4.7.2.1 Estatísticas de acessos com SEO
Na medida que artigos e novas páginas vão sendo publicadas no blog do
projeto, naturalmente, a quantidade de visitantes provindos das buscas orgânicas
tendem a aumentar por conta de toda a otimização feita nas etapas explicadas
anteriormente.
Uma vez que a otimização com o SEO é iniciada, a tendência é sempre
uma melhora nos resultados, desde que sejam mantidas as aplicações das técnicas
de forma a manter novas páginas ou artigos otimizados.
A figura 37, a seguir, mostra o crescimento da quantidade de visitantes ao
blog “Técnicas de SEM e SEO”.
Figura 37 - Visão geral dos visitantes para o website “sem.eti.br” de 01 de janeiro de 2012 a 25 de abril de 2012. Fonte: Google. Acesso em 25 Abr. 2012.
87
De acordo com a estatística de visitantes, foi possível traçar as datas de
acontecimentos importantes no processo de otimização, que seguem descritas a
seguir:
01/01/2012: publicação do blog e alguns artigos sem otimização;
01/02/2012: publicação de mais artigos (sem otimização);
01/03/2012: 10 artigos publicados. Nada indexado pelo Google ainda;
13/03/2012: criado “sitemap.xml” e enviado para o “Google Webmaster
Tools”;
14/03/2012: “sitemap.xml” é aceito pelo Google. 10 páginas foram
indexadas;
14/04/2012: 36 páginas estão indexadas no Google;
25/04/2012: 68 páginas já são exibidas nos resultados do Google.
Através da ferramenta de medição “Google Analytics”, também é possível
verificar o tipo de tráfego de acesso, a origem e muito mais.
Na figura 38, a seguir, no período coletado de 01/03/2012 a 25/04/2012,
podemos verificar que 46,34% do tráfego de acesso tiveram como origem algum
mecanismo de busca, e 15,85% das visitas foram referenciadas, ou seja, chegaram
ao “Técnicas de SEM e SEO” por meio de algum link em outro website. Ainda, temos
37,80% do tráfego apresentado como sendo direto, que significa que essas visitas
tiveram como origem alguém que digitou o endereço do website no navegador.
88
Figura 38 - Visão geral das origens de tráfego para o website “sem.eti.br” de 01 de janeiro de 2012 a 25 de abril de 2012. Fonte: Google. Acesso em 25 Abr. 2012.
Figura 39 - Visão geral das origens de tráfego para o website “sem.eti.br” de 01 de janeiro de 2012 a 25 de abril de 2012. Fonte: Google. Acesso em 25 Abr. 2012.
Na figura 39, estão palavras-chave utilizadas no mecanismo de busca de
origem e que fazem parte da estatística de tráfego de pesquisa que resultaram na
visita ao website deste projeto.
89
4.7.2.2 Estatísticas de acessos com SEM
Com o uso de técnicas de SEM, como a compra de links, através da
ferramenta “Google Adwords” é possível mostrar um resultado mais rápido, pois uma
vez que o investimento financeiro em publicidade foi efetuado e os links ou banners
aceitos, o retorno é imediato.
Hoje, a plataforma de SEM “Google Adwords”, é a mais utilizada na
internet, em publicidade pay-per-click (pago-por-clique, ou PPC), segundo Jerkovic
(2010).
A figura 40, a seguir, mostra alguns resultados da campanha de
publicidade no “Google Adwords” para o website “Técnicas de SEM e SEO”.
Figura 40 - Resultado da campanha no AdWords para o website “sem.eti.br” no período de 06 de maio de 2012 a 09 de maio de 2012. Fonte: Google Adwords. Acesso em 09 Maio 2012.
Com um custo total de R$ 82,88, em 3 dias, foi possível obter 201 cliques
e 74.856 impressões nas campanhas publicitárias.
A ferramenta também mostra a estatística das palavras-chave definidas
para a campanha que resultaram no clique dos anúncios.
90
Figura 41 - Cliques nas palavras-chave ativadas para o website “sem.eti.br” de 15 de março de 2012 a 06 de maio de 2012. Fonte: Google Adwords. Acesso em 06 Maio 2012.
A figura 41, acima, mostra que, de acordo com o “Google Adwords”, a
palavra-chave mais clicada, ou que mais influenciou os usuários a clicar nas
campanhas, foi “seo”, abreviação de “Search Engine Optimization” que é um dos
temas principais do blog “Técnicas de SEM e SEO”.
Para obter uma lista de palavras-chave relacionadas ao conteúdo, foi
usada a opção “Ferramenta de Palavras-chave” do próprio “Google Adwords”, que
indica as melhores palavras para os termos ou o website solicitados.
Na ferramenta “Google Analytics”, pode-se notar claramente o aumento
no percentual de visitantes ao website depois da implementação da campanha de
SEM através do “Google Adwords”.
Na figura 42, a seguir, fica comprovado o efeito da campanha publicitária.
91
Figura 42 - Cliques nas palavras-chave ativadas para o website “sem.eti.br” de 15 de março de 2012 à 06 de maio de 2012. Fonte: Google Analytics. Acesso em 06 Mai. 2012.
As campanhas de SEM, independente de serem por meio de PPC, são a
melhor forma de obter um retorno positivo imediato para um website num curto
espaço de tempo.
Para Jerkovic (2010), utilizar técnicas de SEM junto com SEO reforça
ainda mais a presença de um website na internet. A SEM é muito útil, principalmente
para novos websites, que não são conhecidos e que têm poucos acessos.
92
5 CONCLUSÕES
Apresentam-se, a seguir, as principais conclusões obtidas com esta
pesquisa. Assim como, recomendações para trabalhos futuros.
5.1 CONCLUSÕES
Durante o ciclo de desenvolvimento do presente trabalho, adquiriu-se
conhecimento acerca de novos recursos e ferramentas, na otimização de websites,
para melhorar sua popularidade nos mecanismos de busca. Com o aproveitamento
deste novo conhecimento, foi possível criar e otimizar o website proposto de uma
forma muito satisfatória.
Foi feita uma pesquisa cuidadosa, em diversos livros e sites
especializados, para apresentar as melhores técnicas, atualmente utilizadas pelos
profissionais da área de marketing para mecanismos de busca, em projetos de
consultoria em Search Engine Marketing (SEM) e Search Engine Optmization (SEO).
Esta pesquisa ajudará aos interessados, sejam profissionais ou não, a
criarem um website totalmente otimizado para os melhores buscadores do país.
Aprimorando sua rastreabilidade, pelos algoritmos indexadores e, otimizando seu
conteúdo, consequentemente aumentando as chances de mais acessos de
visitantes, ao website.
As técnicas de SEM e SEO, são hoje a melhor combinação para uma boa
estratégia de marketing de um website. Podem trazer o resultado esperado ou até
mais do que isso. Se não houver a necessidade de um retorno imediato, o melhor a
fazer é aplicar técnicas de SEO, seguindo as orientações do mecanismo de busca
almejado, e investir muito em qualidade de conteúdo e frequência de novas
publicações. No entanto, caso haja a necessidade de retorno imediato deve-se, além
fazer a parte de SEO, também adquirir anúncios pagos, principalmente anúncios no
modelo pago por clique.
A maior dificuldade enfrentada foi obter boas referências bibliográficas
sobre alguns assuntos, uma vez que, por este campo de pesquisa estar diretamente
93
relacionado à internet, muitos autores que escrevem artigos, na rede, sobre o
assunto, não possuem qualificação acadêmica adequada para serem considerados
uma fonte confiável para referência. Por este motivo, tentou-se dar mais importância
aos livros adquiridos, de autores com formação acadêmica e com amplo
reconhecimento nacional ou internacional.
O objetivo principal foi, otimizar um website, em formato de blog, a partir
do zero, para aplicar as técnicas estudadas e mostrar seus resultados. Este objetivo
foi atingido, apesar do tempo limitado em se tratando de SEO que, segundo os
autores consultados, leva cerca de 1 ano, em média, para mostrar todo seu
potencial. Apresentamos, ao final do trabalho, as estatísticas e dados
comprobatórios dos benefícios da otimização com SEO e SEM, e seus
comparativos.
Notou-se que, com a ajuda de ferramentas disponibilizadas pelos próprios
mecanismos de busca, como as conhecidas “webmaster tools”, torna-se muito mais
simples divulgar um website novo para o crawler do mecanismo pretendido. E
ferramentas exclusivas para SEM, como o “Google Adwords”, que é pago por
cliques, tem um resultado com retorno imediato.
Por fim, a proposta aqui apresentada, ainda pode ser melhorada, com a
continuação da pesquisa e manutenção da otimização dos novos conteúdos, que
serão adicionados ao website criado para o trabalho, e este continuará recebendo
artigos e outras informações úteis para otimização de websites.
5.2 TRABALHOS FUTUROS
Para trabalhos futuros, relacionados com a área de otimização de
websites, recomendamos uma abordagem da otimização para as redes sociais.
As redes sociais, como por exemplo, Facebook e Orkut, trazem uma nova
tendência de marketing e publicidade para websites, pois permitem que o usuário
interaja em tempo real com o conteúdo e, inclusive, espalhe o conteúdo através da
rede social, de uma forma viral e muito rápida.
94
REFERÊNCIAS
BACCHIN, Gustavo. SEM, SEO e Links Patrocinados: quem é quem e quais as
diferenças. Artigo, 2007. Disponível em: <http://www.gustavobacchin.com.br/sem-seo-e-ppc-quem-e-quem-e-quais-as-diferencas/57/>. Acesso em: 22 Set. 2011. BACCHIN, Thiago. Otimização de Sites: uma questão de padrões e usabilidade.
Artigo, 2007. Disponível em: <http://sembrasil.com.br/artigos/otimizacao-de-sites-uma-questao-de-padroes-e-usabilidade.html>. Acesso em: 09 Abr. 2012. BAILYN, Evan. BAILYN, Bradley. Outsmarting Google: SEO Secrets to winning
new business. 1.ed. United States of America: Que Publishing, 2011. BRIZZI, Bruno. Pagerank: Afinal pra que ele Serve? Artigo, 2008. Disponível em: <http://www.mundoseo.com.br/google-seo/pagerank-afinal-pra-que-serve>. Acesso em 11 Abr. 2012. CANTÚ, Evandro. Redes de computadores e internet. Disponível em: <http://www.das.ufsc.br/~montez/Disciplinas/materialRedes/ApostilaCantu.pdf>. Acesso em: 03 Abr. 2012. CARNEIRO, Ruy. et al.. Web Analytics – Uma Visão Brasileira. WAW-Brasil, 2008. Disponível em <http://www.waconsulting.com.br/downloads.php?tipo=2>. Acesso em: 29 mar. 2012. CARVALHO, Raviel. Práticas de SEO no código. Artigo, 2009. Disponível em: <http://imasters.com.br/artigo/14921/seo/praticas-de-seo-no-codigo>. Acesso em: 01 Out. 2011. COMSCORE. Google Contabiliza 9 entre cada 10 Buscas Conduzidas na América Latina. Artigo, 2011. Disponível em:
<http://www.comscore.com/por/Press_Events/Press_Releases/2011/5/Google_Sites_Accounts_for_9_of_10_Searches_Conducted_in_Latin_America>. Acesso em: 24 Set. 2011. COMSCORE. Consumidores no Brasil e Argentina mais propícios a realizarem compras online - mulheres mais propícias que homens a comprarem online na
América Latina. Artigo, 2010. Disponível em: <http://www.comscore.com/por/Press_Events/Press_Releases/2010/12/comScore_Releases_Study_on_Latin_American_E-Commerce_Landscape>. Acesso em: 24 Set. 2011. COSTA DO VALE, Maria do Socorro; COSTA, Denise Coutinho; ALVES JR., Nilton. Internet: histórico, evolução e gestão. Rio de Janeiro: RedeRio de Computadores (FAPERJ), 2001. CUTTS, MATT. Straight from Google: What You Need to Know. Artigo, 2009.
Disponível em: <http://www.mattcutts.com/blog/seo-for-bloggers/>. Acesso em: 16 Jun. 2012.
95
ENGE, Eric. et al.. A arte de SEO: dominando a otimização dos mecanismos de busca. Trad. Tibério J. C. Novais. São Paulo: Novatec Editora, 2010. EXPERIAN HITWISE. Percentage of u.s. clicks by number of keywords.
Disponível em: <http://www.hitwise.com/index.php/us/about-us/press-center/press-releases/bing-searches-increase-twenty-one-percent >. Acesso em: 09 Out. 2011. FALLOWS, Deborah. How Women and Men Use the Internet. United States of
America. Pew Internet & American Life Project, 28 Dez. 2005. FURTADO, Miguel Benedito. XML - Extensible Markup Language. Disponível em: <http://www.gta.ufrj.br/grad/00_1/miguel>. Acesso em: 20 Jan. 2012. GOOGLE TIMELINE. Google Timeline. Disponível em:
<http://www.google.com/corporate/timeline>. Acesso em: 20 Jan. 2012. HALLIGAN, Brian, SHAH, Dharmesh. INBOUND MARKETING, get found using Google, social media, and blogs. New Jersey: John Wiley & Sons, Inc. 2010.
INTERNET SYSTEMS CONSORTIUM. The ISC Domain Survey. Disponível em:
<https://www.isc.org/solutions/survey>. Acesso em: 03 abr. 2011. JERKOVIC, John I. Guerreiro SEO. Trad. Rafael Zanolli. São Paulo: Novatec Editora, 2010. KENDZERSKI, Paulo R. SEM – Search Engine Marketing. Artigo, 2008. Disponível em: <http://www.wbibrasil.com.br/artigo/artigo-sem-search-engine-marketing/27/>. Acesso em: 25 Set. 2011. LEDFORD, Jerri. SEO: otimização para motores de busca, bíblia. Trad. Marcelo Rio
de Janeiro. Rio de Janeiro: Alta Books Editora, 2008. LEITE, Marcelo. Uma Palavra Sobre Open Source. Artigo, 2005. Disponível em: <http://www.anysoft.com.br/content/view/13/52/>. Acesso em: 23 Nov. 2011. MARCEL, Frank. Canonical Tag – Acabe com o conteúdo duplicado. Artigo, 2009.
Disponível em: <http://www.mestreseo.com.br/conteudo-duplicado/canonical-tag-acabe-com-o-conteudo-duplicado>. Acesso em: 29 Nov. 2011. MARCEL, Frank. SEO – Navegação para visitantes e buscadores. Artigo, 2008.
Disponível em: <http://www.mestreseo.com.br/usabilidade/seo-navegacao-visitantes-buscadores>. Acesso em: 16 Mai. 2012. MARINO, Andreza E. SEO: em busca da busca perfeita. Artigo, 2011. Disponível em: <http://www.locaweb.com.br/downloads/Locaweb29.pdf>. Acesso em: 28 Set.
2011. MILETSKY, Jason I. Principles of Internet Marketing: New Tools and Methods for Web Developers. United States of America: Course Technology, 2010.
96
MIRANDA, Maria E. A importância da palavra escrita: dos gregos aos buscadores. Artigo, 2007. Disponível em: <http://www.sembrasil.com.br/artigos/a-importancia-da-palavra-escrita-dos-gregos-aos-buscadores.html>. Acesso em: 26 Set. 2011. REGISTRO.BR. Lista de categorias de domínios. Disponível em:< http://registro.br/dominio/dpn.html>. Acesso em: 22 set. 2011. RICOTTA, Fábio. O que é SEM? Artigo, 2008. Disponível em:
<http://www.mestreseo.com.br/sem/o-que-e-sem>. Acesso em: 22 Set. 2011. RICOTTA, Fábio. O que é PageRank? Artigo, 2007. Disponível em: <http://www.mestreseo.com.br/pagerank/o-que-e-pagerank>. Acesso em: 11 Abr. 2012. SERASA EXPERIAN. Google Brasil segue na liderança dos buscadores no país. Disponível em: <http://www.serasaexperian.com.br/release/noticias/2011/noticia_00662.htm>. Acesso em: 15 Mar. 2012. SITEMAP.ORG. Formato XML dos Sitemaps. Artigo, 2008. Disponível em:
<http://www.sitemaps.org/pt_BR/protocol.php>. Acesso em: 29 set. 2011. SILVA, Edna Lúcia da; MENEZES, Estera Muszkat. Metodologia da pesquisa e elaboração de dissertação. 4. ed. Florianópolis: UFSC, 2005. 138p.
STATCOUNTER, Global Stats. Tracks the Market Share of Search Engines, Browsers and Operating Systems including Mobile from over 15 billion monthly page views. Disponível em: <http://gs.statcounter.com>. Acesso em: 11
Abr. 2012. TEIXEIRA, Paulo R. Cada página tem seu PageRank. Artigo, 2007. Disponível em <http://www.marketingdebusca.com.br/cada-pagina-tem-seu-pagerank>. Acesso em: 11 Abr. 2012. THE WORLD BANK GROUP. Banco Mundial: indicadores do desenvolvimento mundial. Disponível em: <http://data.worldbank.org/indicator/IT.NET.USER/countries?display=graph>. Acesso em: 16 set. 2011. TORRES, Cláudio. A Bíblia do Marketing Digital: tudo o que você queria saber
sobre marketing e publicidade na internet e não tinha a quem perguntar. São Paulo: Novatec Editora, 2009. TRAVARELI, Cassiano. O que é SEO? Artigo, 2008. Disponível em:
<http://www.brasilseo.com.br/seo/o-que-e-seo>. Acesso em 23 Set. 2011. VALDES MORRIS, Mirta. Algunas consideraciones sobre el posicionamiento Web. ACIMED, Ciudad de La Habana, v. 15, n. 5, mayo 2007. Disponível em:
97
<http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S1024-94352007000500005&lng=es&nrm=iso>. Acesso em: 22 Set. 2011. W3C.ORG. Tradução portuguesa de "Cascading Style Sheets Homepage". Artigo, 2008. Disponível em: <http://www.webstyles-portuguese.info/Style/CSS/>. Acesso em: 29 jan. 2012.