Data de divulgação: 14/01/2017

Otimização de sites para mecanismos de busca - Tarefas básicas

Você quer otimizar o seu site mas não sabe por onde começar? Hoje vou mostrar alguns passos que julgo serem básicos para você iniciar a otimização de seu site.

 

A otimização de sites para mecanismos de busca não é uma tarefa fácil de ser alcançada, tem que ter paciência e muito trabalho para se alcançar as primeiras posições dos mecanismos de busca. O que vou mostrar hoje não basta para você aparecer nos primeiros resultados porém será o passo inicial para alcançar tal feito. Vamos lá confira as dicas.

 

Conteúdo único

Não é uma boa prática copiar conteúdos de outros lugares e colar em seu site, além do mais isso pode levá-lo a ser penalizado pelos mecanismos de busca. Tenha sempre um conteúdo único e relevante e para isso precisa identificar o seu público-alvo e o que realmente interessa a ele.

 

Uma dica é utilizar a ferramenta do Google Display Planner onde você preenche os dados (palavra-chave, domínio do site e local) e ele te dá toda a segmentação de idade, sexo e tipo de dispositivos.

 

É importante também definir as palavras chaves relacionadas com o conteúdo sobre o qual irá falar,  de acordo com os objetivos para os quais deseja se posicionar.

 

Definição da url

A definição da url de uma página,  deve ser a segunda coisa a se  fazer, isso porque juntamente com o título e a descrição formarão os primeiro e importantíssimos fatores para que seu site tenha um ótimo ranqueamento nas pesquisas.

 

Depois de planejar suas palavras chaves, sobre o que vai tratar a página, a dica é que em sua url contenha as principais palavras chaves, de forma a descrever o seu conteúdo, mas sem ser muito longa. Outro ponto é usar url amigáveis, como falaremos em um tópico específico deste artigo, estruturadas sem usar caixa alta, com ( - ) hífen separando as palavras e evitando usar datas e números.

 

Otimização de títulos e descrições

Títulos e descrições são usados pelos mecanismos de busca para montar os chamados "snippets" ou bloco de resultados de acordo com a relevância que tem em uma determinada pesquisa. Veja a imagem abaixo : 

 

 

Títulos e descrições devem ser únicos para cada página, são um resumo do que aquela página significa para o visitante, um título e uma descrição bem feita é a diferença entre o visitante clicar para entrar no seu site ou no do seu concorrente.

 

Algo muito importante é que nos títulos e descrições, assim como nas urls contenham as palavras-chave para a qual deseja se posicionar.  Procure usar também as call to actions (chamadas para a ação) nas descrições, para incentivar seus potenciais visitantes a acessarem seu link.

 

Otimização de imagens

A otimização de imagens é um ponto muito importante, pois seu site precisa que elas tenham qualidade, mas que não sejam muitos pesadas dificultando o carregamento da página e fazendo com que perca posições referente aos mecanismos de busca, e até clientes pelo tempo de espera.

 

A ferramenta do Google Pagespeed é uma ótima opção para você visualizar o que está afetando o tempo de carregamento da página tanto para dispositivos móveis quanto para desktop. Logo após a análise da página se for encontrado algum problema referente aos seus arquivos de imagens, Javascript ou css é disponibilizado esses arquivos otimizados para download e inclusão em seu site.

 

Outro ponto importante é sempre colocar a descrições do que se trata a imagem  nos campos alt,  title e no nome da imagem.  O Google não consegue visualizar o que existe na imagem, o que ele faz é ler as tags html e segundo o conteúdo dos mesmos ele identifica do que se trata e consegue destinar para o melhor resultado nas buscas.

 

Robots.txt

O arquivo robots.txt é onde são definidas as permissões em que o robô do Google poderá acessar para indexar suas páginas, ele deve estar hospedado na raiz de seu site.

 

Para realizar um bloqueio basta criar um arquivo de texto e nomeá-lo como robots.txt, junto com suas permissões. Logo abaixo colocarei algumas sintaxes de como bloquear um conteúdo é bem simples.

A sintaxe User-agent:*  Indica que todos os mecanismos de busca poderão acessar os conteúdos para indexação, Disallow:  Indica as páginas ou pastas em que os mecanismos de busca não poderão indexar. Feito isso basta você enviar o arquivo para a raiz do seu site e informar ao Google através do Search Console.

 

Esse arquivo basicamente diz para o Google o que pode indexar, ou seja, mostrar para as pessoas quando procura algo em seu site.

 

Sitemap.xml

Sitemap.xml como o nome já sugere trata-se de um mapa do seu site, onde você mostra para o Google quais páginas ele possui e de quanto em quanto tempo você realiza alterações, facilitando aos mecanismos de buscas compreenderem a estruturação de seu site.

 

Quando os motores de busca acessam seu site eles percorrem as páginas seguindo os links e caso não tenha uma boa linkagem interna de suas páginas é o Sitemap que poderá garantir que nenhuma de suas páginas deixe de ser visitada por eles, mas atenção não bloqueie arquivos css e de imagens, pois afetará a forma como os buscadores visualizam seu site.

 

Url amigável

É comum encontrarmos urls cheias de parâmetros e caracteres que impossibilitam tantos as pessoas como os motores de busca de identificar do que se trata o que pode trazer certa insegurança para quem acessa. Com urls amigáveis antes mesmo de acessar sua página é possível identificar do que se trata.

              

Veja os exemplos abaixo, qual parece mais confiável e amigável?

Google Webmaster e Google Analytics

Feitas todas as configurações citadas anteriormente, criados os arquivos robots.txt e Sitemap.xml é hora de configurar as ferramentas Google Webmaster e Google Analytics.

 

A ferramenta do Google Webmaster Tools te dá dados a respeito de como anda o seu site, se tem algum erro como títulos faltando ou duplicados, quais páginas são melhores indexadas, qual a posição de cada página referente à certa palavra chave e com isso você pode ter parâmetros para otimizar e ranquear melhor o seu site. Pode também fazer solicitações ao Google, enviar os arquivos de robots e sitemap que criou.

 

O Google Analytics mostra dados referente aos acessos de seu site como qual navegador, cidade, dispositivo, país, páginas, estatísticas de onde está vindo seu tráfego entre outros dados. Com esses dados em mãos você pode segmentar melhor suas campanhas para atingir melhor seu público alvo.

 

Tempo de carregamento do site

Ter um site com bom carregamento é essencial para não perder visitas, seja em desktops ou em outros dispositivos. Quantas vezes já aconteceu com você de acessar um site e ele ser tão lento que por mais que estivesse interessado no conteúdo ou produto desistiu por não ter tempo de esperar, pois é.

 

Para melhorar o carregamento deve otimizar as imagens, compactar o Javascript e o css de sua página, e para isso pode usar a como já vimos a ferramenta Pagespeed, que permite baixar após a análise os arquivos já otimizados.

 

Acesso com www ou sem www

Esta configuração é feita através da escolha do seu domínio de preferência e é importante porque sem ela seus conteúdos podem estar sendo acessado por dois endereços diferente, dando a entender que o conteúdo tá duplicado. Portanto na ferramenta Webmaster do Google defina o domínio que prefere e efetue também alterações nos arquivos do site definindo:

 

Base especifica um destino base padrão para todas as urls do site e o canonical indica que a relevância será dada ao link especificado como canônico.

 

Espero que tenha ajudado a dar um norte de por onde começar a otimização de seu site. Dúvidas estamos á disposição é só entrar em contato estaremos prontos a responder.

 

Sobre cada tópico acima estaremos detalhando o conteúdo em posts específicos, então não deixe de assinar para receber nosso conteúdos.

 

" Quem procura ter sabedoria ama a sua vida, e quem age com inteligência encontra a felicidade. "

 

Autor : Ana Paula Pereira Gutierre

 

Não deixe de compartilhar!