Penalizzazioni di Google e come uscirne

come uscire penalizzazione google

Penalizzazioni di Google: Come riconoscerle

Vuoi sapere prima di leggere l’articolo se un tuo sito è stato penalizzato???

Allora utilizza il seguente tool: website-penalty-indicator

Prima di tutto dobbiamo fare una distinzione tra penalizzazione, filtri e Ban:

    • Penalizzazione: Perdita di posizioni del sito sulla SERP
    • Filtri: Declassamento della pagina  web per specifiche query
    • Ban: Cancellazione del sito della SERP.

Le prime due azioni posso essere effettuate, da google, o tramite algoritmi , oppure tramite azioni manuali effettuati dai quality rater, ovvero ricercatori di google che analizzano i siti e le query di ricerca, mentre il ban può essere ricevuto soltanto tramite un azione manuale.

Se il nostro sito è stato colpito da una penalizzazione riceveremo un messaggio  nel pannello di controllo degli strumenti di webmaster, con i motivi ed eventuali suggerimenti per uscirne.

In pratica se il nostro sito è stato bannato, inserendo su google site:sito.it non troveremo più il nostro sito.

Sono tantissimi i clienti che a causa di una gestione errata delle loro attività hanno ricevuto delle penalizzazioni sui propri siti, anche se da qualche anno è molto difficile ricevere una penalizzazione manuale, e chiedono un preventivo ad esperti SEO per far si che il loro sito “risorga”.

 

Come Uscire da una Penalizzazione di Google

perdita rankingLe penalizzazioni posso essere ricevute per vari casi.

Uno dei casi di penalizzazione, come detto più volte è dovuta alla sovraottimizzazione, per uscire dalla penalizzazione dobbiamo utilizzare in modo più equilibrato le parole chiave ed eliminare parti di testo nascosto, o peggio ancora contenuti copiati da altri siti.

Ancora, possiamo ricevere una penalizzazione per colpa di link troppo ottimizzati.

E’ una buona pratica eliminare link ripetuti sulle varie pagine del sito:

Es:

Link presenti nel footer che sono uguali per tutte le pagine (mettere rel=”nofollow”).

Se risolviamo il problema avremmo un recupero della posizione del sito in tempi molto brevi, anche due giorni.

Crescita innaturale di link (es: un link a gennaio, uno a febbraio, 100 a marzo) Google potrebbe sospettare un acquisto di link.

Nel caso di una crescita improvvisa di backlink, dobbiamo variare le anchor text dei link, spostare i backlink su più pagine del nostro sito, deep linking, e cercare di ottenere i backlink in modo graduale e da più di un sito.

Uscire Penalizzazione Penguin

 Per uscire dalle penalizzazione nel caso di backlink da siti spam, bisogna verificare che i link che puntano al nostro sito non siano di basso valore o provenienti da siti spam.

Una volta individuati dobbiamo chiedere ai webmaster dei siti esterni di eliminarli o inserire il rel=”nofollow”.

In alternativa possiamo segnalare la rimozione dei link a google utilizzando lo strumento google disavow links tools.

Regole disavow

Se all’interno del file inseriamo un dominio senza www, stiamo dicendo di esculdere tutti i link che riceviamo da quel dominio (inclusi i sottodomini).

Es:
domain:example.com
include www.example.com e xyz.example.com
domain:www.example.com si riferisce solo a www.example.com
Guida per richiedere la rimozione https://support.google.com

Come fare per individuarli?

  • Webmaster–> Traffico di ricerca –> Link che rimando al tuo sito –> Fare click su altro, quindi scarica più link di esempio

Quindi, individuiamo i link che vogliamo eliminare, creiamo un file di testo nel formato txt e codifica UTF-8. I link devono essere elencati uno per riga.

Se vogliamo eliminare tutti i link provenienti da un dominio dobbiamo inserire la regola: domain:sito.com.

In simbolo # server per inserire i commenti.

Creato questo file andiamo su  Google disavow links tools e clicchiamo su rifiuta link.

I link saranno eliminarti nel giro di poche settimane.

Una volta rifiutati verranno comunque visualizzati su strumenti per webmaster anche se non saranno più riconosciuti come follow.

Eliminati tutti i link possiamo chiedere la riconsiderazione del nostro sito.

uscire da una penalizzazione di google

Errori Scansione sito da parte degli Spider di Google

Vediamo ora i possibili errori di scansione:

  • Scansione –> Errori di scansione

I problemi potrebbero essere legati al sito o al server.

  • Errori DNS: in questo caso lo spider non è riuscito ad eseguire la scansione degli url, perchè non è riuscito a comunicare con il server DNS (in questo caso se il problema non viene risolto bisogna contattare l’assistenza del proprio host)
  • Errori di connettività del server: Es: Il server è sovraccarico o configurato in modo errato (in questo caso se il problema non viene risolto bisogna contattare l’assistenza del proprio host)
  • Errore robots.txt: Lo spider prima di scansionare il sito visualizza il contenuto di questo file, per sapere cosa può fare all’interno del sito (indicizzare o no, seguire / non seguire i link da una pagina all’altra). Se il file robots.txt è presente ma non raggiungibile dallo spider, non scansionerà il sito, e ritornerà in un momento successivo per verificare se tale file è raggiungibile.

Errori causati dai singoli url:

  • Scansione –> Sitemap

Possiamo visualizzare quali problemi sta riscontrando lo spider

(Es: la pagina si apre troppo lentamente per un sovraccarico del server, oppure perchè sono pagine dinamiche con url troppo lunghi)

Vuoi sapere quali sono i file indicizzabili da Google?

https://support.google.com

Da un punto di vista della struttura del sito, Google segnala che se la navigazione o i link sono realizzati utilizzato js, dhtml, immagini con contenuti multimediali, come silverlight, Googlebot potrebbe avere problemi nella scansione del sito. Quindi è meglio utilizzare il codice HTML per la navigazione (quindi link in forma testuale).

E’ sconsigliato l’utilizzo degli iframe, infatti tali contenuti potrebbero non essere indicizzati (se utilizziamo iframe, dobbiamo inserire link basati sul testo in modo che google possa effettuare la scansione e di conseguenza indicizzare la pagina)

https://support.google.com

Parliamo di: Cloaking, Doorway Page e Shadow Domain

Il Cloaking è una tecnica che se applicata, permette di mostrare, agli utenti un contenuto della pagine differente rispetto a quello che viene fatto visualizzare ai motori di ricerca.

Come viene fatto?

Mediante uno script, che riesce a rilevare, mediante l’analisi dei dati relativi dagli user agent e all’indirizzo IP, se la pagine web viene visualizzata  da uno spider o da un utente. Se il server nota che la pagina viene scansionata da uno spider mostra un contenuto differente.

Altra tecnica simile è il Doorway Page, google mediante i suoi algoritmi riesce a scovarla molto facilmente e quindi penalizzarla,  lo scopo è quello di creare diverse pagine web fortemente ottimizzate per determinate parole chiave, che mostrano un contenuto senza alcun senso logico.

Lo scopo è quello di posizionare il sito nelle prime posizioni della SERP per determinate parole chiave, con il fine di portare traffico verso quei siti e reindirizzare dopo pochi secondi gli utenti verso altri siti.

Shadow Domain, mediante la quale un utente registra diversi nomi di dominio contenenti una parola chiave molto importante, al fine di scalare posizione nella SERP per poi reindirizzarlo verso un altro dominio.

Consulente SEO