Todos que estão planejando criar um blog/site, precisa saber sobre SEO - Search Engine Optimization. 
É uma ferramenta que lhe ajudará muito na otimização, e terá uma grande influência nos mecanismos de buscas. Aplicando SEO no seu blog, as chances de seu blog aparecer nas buscas é muito maior. 

Definição de SEO



SEO,  é a prática de otimização de sites para motores de busca, com uma série de técnicas para  tornar as páginas de um site mais visíveis nos resultados de pesquisa dos mecanismos de busca. 
Muitas vezes ao ler outros sites ou blogs relacionados ao assunto encontramos termos de SEO que nem sequer sabemos o que significa, e uma boa maneira de começar a aprender o que é SEO,  é se familiarizar com os termos mais comuns  utilizados na internet.
Termos Técnicos Utilizados em SEO
Backlinks : São  links de outro site apontando para seu próprio site. Backlinks são importantes para SEO, porque eles afetam diretamente o PageRank de qualquer página da web, influenciando seus rankings de busca. Para uma melhor indexação nos buscadores devemos buscar criar uma quantidade externa de links, sendo eles naturais e não naturais, follows e nofollows. 
PageRank : PageRank é um algoritmo utilizado pelo Google com valores de 0 a 10  para estimar a importância de um site e suas  páginas para  a web. A idéia básica por trás do algoritmo é o fato de que um link da página A para a página B pode ser visto como um voto de confiança da página A para a página B. Quanto maior o número de ligações naturais seu site possuir na web, maior a probabilidade de que a página seja importante, tendo um melhor PageRank. Logo um site de PageRank alto, possuiria um elevado rank nos buscadores. Com as trocas de links,  fazendas de links pela internet, o PageRank perdeu seu valor, e estima-se que o Google já não anda utilizando-o mais para a classificação de sites em seu buscador.
 Tag Título : O título de uma página é o termo que aparece nas abas de seu navegador.  O título de uma página  é um dos fatores mais importantes dentro algoritmo de busca do Google em termos de SEO. Idealmente, a Tag  título deve ser único, e deve conter as principais palavras-chave de sua página, ou as palavras que se deseja classificar nos buscadores. Ao criar uma página na web, ao invés de simplesmente criá-la é possível obter mais tráfego fazendo a Tag Título de acordo com o que as pessoas pesquisam, verificando a concorrência para a palavra chave X  a quantidade de pesquisas mensais.
Robots.txt : Isto é um arquivo de texto, criado para ser colocado em sua hospedagem mais precisamente na pasta raiz do domínio. Este arquivo deve ter o nome Robots.txt e será utilizado para informar aos robôs de pesquisa dados  sobre a estrutura do site. Por exemplo, através do arquivo robots.txt é possível bloquear os robôs de pesquisa, e restringir o acesso a pastas e páginas específicas dentro do site. Quando uma página, ou pasta de um site é bloqueada através de um comando ao Robots.txt, ela não é indexada nos buscadores. Ideal para ser utilizado em páginas exclusivas, páginas de usuários, ou páginas que por algum motivo não deverão aparecer nos mecanismos de busca.
Web Crawler : Também chamado bot pesquisa ou aranha, é um programa de computador que navega na web, tentando descobrir novos links e novas páginas. Este é o primeiro passo no processo de indexação. Ao criar um site na internet, mesmo que você não faça o cadastro nos buscadores, é possível que seu site seja indexado através de links criados em outros sites, pelo dono do site ou por outros webmasters.
Densidade de palavras-chave : A densidade de palavra chave é o número de vezes que uma determinada palavra chave aparece no conteúdo da página. Para encontrar a densidade de palavras-chave de qualquer página basta dividir o número de vezes que uma determinada palavra chave aparece pelo número total de palavras na página. Em termos de SEO, estima-se que para um buscador classificar uma página para determinada palavra ela deve ter uma densidade de no mínimo 1%, ou seja para um artigo de 2000 palavras a palavra deve aparecer cerca de 20 vezes. A densidade de palavra-chave é usada como um fator importante em SEO, pois os buscadores tem colocado uma ênfase forte entre as palavras pesquisadas pelos usuários e as palavras inseridas em um site.
Keyword stuffing : Como a densidade de palavras-chave foi um fator importante nos algoritmos de busca iniciais, vários webmasters começaram a burlar o sistema de inflar artificialmente a densidade de palavras-chave dentro de seus sites. Isso é chamado de keyword stuffing. Hoje o google já é capaz de localizar esta prática, e encontrar até mesmo palavras chave escondidas para usuários mais vísiveis para buscadores que sejam da  mesma cor do fundo de um site. Caso decida utilizar esta técnica ela já  não irá ajudá-lo, e se for  pego poderá ser penalizado no ranking e até mesmo banido pelos buscadores.
Meta Tags : Como o título, as meta tags são frases usadas em um site  para dar aos usuários e motores de busca mais informações sobre o conteúdo, e o assunto tratado em cada  página de um site. As meta tags são colocadas dentro da seção head do seu código HTML, ou no campo: Description.  É necessário inserir também as palavras chave necessárias para a classificação da página, juntamente com uma descrição chamativa do site pois estas frases são visíveis para os visitantes humanos ao fazer pesquisas nos buscadores sobre determinado assunto, além de serem utilizadas juntamente com o título para o compartilhamento de artigos e sites em redes sociais.
Follow e NoFollow : Estes são os atributos de um link. O nofollow é um atributo de ligação usado por proprietários de sites para sinalizar para o Google que o link com este atributo não deve ser seguido pelo buscador. Isto pode acontecer quando o link é criado pelos próprios usuários (por exemplo, os comentários de um blog), ou quando a ligação é feita com intenção de lucros: (por exemplo, ao divulgar links de programas de afiliados, patrocinadores e anunciantes). Quando o Google vê o atributo nofollow não vai seguir o link e automaticamente não irá contar o mesmo como uma ligação natural ou um voto de confiança do site de origem. Todavia o atributo follow, seria o contrário, e para que um link seja follow, ou seja:  ser seguido pelos buscadores, basta não inserir o atributo rel=”nofollow” em sua estrutura.

Algoritmo de busca : O  algoritmo de busca do Google é uma síntese complexa elaborada por engenheiros e usada para encontrar as páginas web mais relevantes para qualquer consulta de pesquisa feita por usuários.O algoritmo do google vive em constantes mudanças e atualmente  considera mais de 200 fatores (de acordo com o próprio Google), incluindo: o valor do pagerank, o título de tags, meta tags, o conteúdo do site, a idade do domínio, a quantidade de links, a qualidade das postagens, penalizações,  dentre outros fatores  para determinar quais serão os primeiros e os últimos sites a aparecer nos resultados das pesquisas feitas pelos usuários.
SERPs: Este termo significa Stands for Search Engine Results Page. É basicamente a página de resultados que você encontra ao fazer uma pesquisa ou  quando procura por uma palavra-chave específica nos mecanismos de busca. A quantidade de tráfego de busca que o seu site irá receber depende dos rankings que terá dentro das SERPs. É preciso buscar classificar as páginas de um site, deixando-as entre a primeira e a quinta página de resultados das SERPs. Pesquisas recentes relatam que dificilmente um usuário passa da quinta página de um buscador pois geralmente encontra o que procura neste intervalo.  Portanto caso alguma página de seu site seja penalizado e enviado para a página 45 das SERPs, ele não terá tráfego consistente vindo dos buscadores. 
Texto âncora : O texto âncora de um backlink é o texto que é clicável na página web, e geralmente é relacionado com o assunto abordado no site. Criando links com textos âncora ricos em palavras chaves e com as palavras que determinam o assunto de um site irá ajudar o SEO de seu site,  porque o Google irá associar essas palavras-chave com o conteúdo do site e classificar o site nas pesquisas relacionadas a este conteúdo. Se você tem um blog sobre de “Perda de Peso”, por exemplo, e cria textos âncoras relacionados a este assunto, os backlinks criados poderão ajudar a classificar sua página para a pesquisa: “Perda de Peso” e outros itens relacionados a este assunto.
Linkbait : Um linkbait é um pedaço de conteúdo web publicado em um site ou blog com o objetivo de atrair o maior número de backlinks possível (a fim de melhorar a classificação desta página para uma pesquisa). Geralmente é uma peça escrita, mas também pode ser um vídeo, uma imagem, um teste, um curso ou outro conteúdo web. Um exemplo clássico de linkbait são os “Top 10″ listas que tendem a se tornar popular em sites de bookmarking social, e agregadores de links  gerando tráfego consistente para a página  da postagem do Linkbait.
Sandbox : O Google, basicamente, tem um índice separado, chamado de Sandbox ou “caixa de areia”, onde coloca todos os sites recém-descobertas pelos webcrawlers. Quando os sites novos estão na Sandbox, eles não aparecerão nos resultados de pesquisa para consultas de pessoas normais. Depois que o Google verifica que o site é legítimo, ele é movido para o índice principal.
Cloaking . Esta é uma técnica Black Hat SEO que envolve fazer a mesma página  web mostrar conteúdo diferente para os motores de busca do conteúdo normal para os visitantes humanos. O objetivo é fazer com que a página seja  classificada para palavras-chave específicas. Após classificá-la  poderá usar o tráfego de entrada para promover vários  produtos ou serviços não relacionados a página em questão. Esta prática  é considerando spam pela equipe do Google e você poderá ser penalizado ou banido caso utilize-a.
Conteúdo duplicado : Conteúdo duplicado geralmente se refere a blocos substanciais de conteúdo dentro de um site que  pode ser semelhante ou completamente igual a outro conteúdo já publicado e indexado anteriormente. Este também é chamado de roubo de conteúdo. Você deve evitar ter conteúdo duplicado em seu site, porque você pode ser penalizado, e sua página enviada para o final das pesquisas. Geralmente o google classifica o primeiro conteúdo publicado em um site, e caso haja a duplicação por outro site, o segundo site será penalizado, pois o conteúdo original  já foi classificado e se encontra na base de dados do índice do Google. Havendo muitas ocorrências de páginas duplicadas sobre o mesmo texto em um site, mesmo que o conteúdo seja de vários sites diferentes, o site copiador poderá ser banido do índice do Google. 
Googlebot: Este é o famoso ”Robô” do Google. O  Googlebot são computadores do Google, que se assimilam a visitantes, mas que  varrem a internet, seguindo os links de uma página para outra com a intenção de atualizar as existentes e  identificar novas páginas. Ao encontrar as novas páginas ele segue os links para outras páginas, e outras e outras,  e assim infinitamente e sem parar por toda a internet. Esta sequência infinita é a própria internet que se assemelha a uma teia  de aranha gigante de ligações. É  justamente por isto que os buscadores são chamados de webcrawlers, ou aranhas da web.
Link Farm:  Um link farm é um grupo de sites onde cada site possui vários  links para outro site maior, e que deseja ser classificado, com o objetivo de aumentar artificialmente o PageRank de todos os sites envolvidos. Esta prática era altamente eficaz nos  motores de busca do passado, mas hoje eles estão vendo como uma técnica de spam  (e, portanto, você pode ser penalizado ao criar sites menores e com fraco conteúdo apenas para criar links para o site que deseja monetizar).
Black Hat SEO : Black Hat se refere a um conjunto de técnicas proibidas que têm o objetivo de manipular e enganar os mecanismos de busca, oferecendo aos buscadores conteúdo diferenciado ao conteúdo que é criado para as  pessoas que navegam pelo site. Muitos webmasters utilizam técnicas proibidas pelas leis e diretrizes dos buscadores, para alcançar as primeira páginas do Google com seus sites e fóruns simplesmente por se satisfazerem pessoalmente. É possível encontrar vários fóruns na internet que utilizam e discutem as técnicas, porém caso seja um iniciante e tem interesse na criação de um site com fins comerciais é altamente recomendável que não utilize as técnicas de chapéu preto, pois caso descoberto, será banido dos buscadores, e acredite, você não irá querer ter um site na internet sem o tráfego vindo dos buscadores, pois será um site sem vida e sem visitantes.
Sitelinks:  É um conjunto de 7  links que aparecem nas SERPs  junto aos resultados de pesquisa para o nome do site.  Os links que aparecem, e os termos de busca relacionados, são determinados pelo próprio google e seu algorítmo. Esta é uma das atualizações mais recentes criada pelo google e ao buscar um site pela internet você irá se deparar com um conjunto de links para as páginas mais importantes deste site. Para uma melhor visualização dos sitelinks, basta procurar no google pelo termo: MBS Digital, e você verá quais as páginas foram indexadas nos sitelinks para esta busca.
E estes são alguns dos termos mais usados. Espero que isto possa tirar suas dúvidas e lhe acrescentar um pouco mais de conhecimento sobre este assunto.

Comentários

Postagem Anterior Próxima Postagem