Penalizzazioni di google e come uscirne

come uscire penalizzazione google

Penalizzazioni di Google: Come riconoscerle

penalizzazioni di google google

Vuoi sapere prima di leggere l’articolo se un tuo sito è stato penalizzato???

Allora utilizza il seguente tool: website-penalty-indicator

 

Prima di tutto dobbiamo fare una distinzione tra penalizzazione, filtri e Ban:

    • Penalizzazione: Perdita di posizioni del sito sulla SERP
    • Filtri: Declassamento della pagina  web per specifiche query
    • Ban: Cancellazione del sito della SERP.

 

Le prime due azioni posso essere effettuate, da google, o tramite algoritmi , oppure tramite azioni manuali effettuati dai quality rater, ovvero ricercatori di google che analizzano i siti e le query di ricerca, mentre il ban può essere ricevuto soltanto tramite un azione manuale.

Se il nostro sito è stato colpito da una penalizzazione riceveremo un messaggio  nel pannello di controllo degli strumenti di webmaster, con i motivi ed eventuali suggerimenti per uscirne.

In pratica se il nostro sito è stato bannato, inserendo su google site:sito.it non troveremo più il nostro sito.

 

Sono tantissimi i clienti che a causa di una gestione errata delle loro attività hanno ricevuto delle penalizzazioni sui propri siti, anche se da qualche anno è molto difficile ricevere una penalizzazione manuale, e chiedo un preventivo per far si che il loro sito “risorga”.

 

COME USCIRE DA UNA PENALIZZAZIONE DI GOOGLE

perdita rankingLe penalizzazioni posso essere ricevute per vari casi.

Uno dei casi di penalizzazione, come detto più volte è dovuta alla sovraottimizzazione, per uscire dalla penalizzazione dobbiamo utilizzare in modo più equilibrato le parole chiave ed eliminare parti di testo nascosto, o peggio ancora contenuti copiati da altri siti.

 

Ancora, possiamo ricevere una penalizzazione per colpa di link troppo ottimizzati.

 

E’ una buona pratica eliminare link ripetuti sulle varie pagine del sito:

es: link presenti nel footer che sono uguali per tutte le pagine (mettere rel=”nofollow”).

Se risolviamo il problema avremmo un recupero della posizione del sito in tempi molto brevi, anche due giorni.

Crescita innaturale di link (es: un link a gennaio, uno a febbraio, 100 a marzo) google potrebbe sospettare un acquisto di link.

 

Nel caso di una crescita improvvisa di backlink, dobbiamo variare le anchor text dei link, spostare i backlink su più pagine del nostro sito, deep linking, e cercare di ottenere i backlink in modo graduale e da più di un sito.

 

 Per uscire dalle penalizzazione nel caso di backlink da siti spam, bisogna verificare che i link che puntano al nostro sito non siano di basso valore o provenienti da siti spam. Una volta individuati dobbiamo chiedere ai webmaster dei siti esterni di eliminarli o inserire il rel=”nofollow”. In alternativa possiamo segnalare la rimozione dei link a google utilizzando lo strumento google disavow links tools.

Guida per richiedere la rimozione https://support.google.com

 

Come fare per individuarli?

  • Webmaster–> Traffico di ricerca –> Link che rimando al tuo sito –> Fare click su altro, quindi scarica più link di esempio.

 

Quindi, individuiamo i link che vogliamo eliminare, creiamo un file di testo nel formato txt e codifica UTF-8. I link devono essere elencati uno per riga. Se vogliamo eliminare tutti i link provenienti da un dominio dobbiamo inserire la regola: domain:sito.com.

In simbolo # server per inserire i commenti.

 

Creato questo file andiamo su  google disavow links tools e clicchiamo su rifiuta link. I link saranno eliminarti nel giro di poche settimane. Una volta rifiutati verranno comunque visualizzati su strumenti per webmaster anche se non saranno più riconosciuti come follow.

Eliminati tutti i link possiamo chiedere la riconsiderazione del nostro sito: reconsideration

 

 

uscire da una penalizzazione di google

 

Vediamo ora i possibili errori di scansione:

  • Scansione –> Errori di scansione

 

I problemi potrebbero essere legati al sito o al server.

  • Errori DNS: in questo caso lo spider non è riuscito ad eseguire la scansione degli url, perchè non è riuscito a comunicare con il server DNS (in questo caso se il problema non viene risolto bisogna contattare l’assistenza del proprio host)
  • Errori di connettività del server: Es: Il server è sovraccarico o configurato in modo errato (in questo caso se il problema non viene risolto bisogna contattare l’assistenza del proprio host)
  • Errore robots.txt: Lo spider prima di scansionare il sito visualizza il contenuto di questo file, per sapere cosa può fare all’interno del sito (indicizzare o no, seguire / non seguire i link da una pagina all’altra). Se questo file è presente ma non raggiungibile dallo spider, non scansionerà il sito, e ritornerà in un momento successivo per verificare se tale file è raggiungibile.

 

Errori causati dai singoli url:

  • Scansione –> Sitemap

 

Possiamo visualizzare quali problemi sta riscontrando lo spider (Es: la pagina si apre troppo lentamente per un sovraccarico del server, oppure perchè sono pagine dinamiche con url troppo lunghi)

 

Vuoi sapere quali sono i file indicizzabili da google???

https://support.google.com

 

da un punto di vista della struttura del sito, google segnala che se la navigazione o i link sono realizzati utilizzato js, dhtml, immagi con contenuti multimediali come silverlight, google bot potrebbe avere problemi nella scansione del sito. Quindi è meglio utilizzare il codice html per la navigazione (quindi link in forma testuale)

è sconsigliato l’utilizzo degli iframe, infatti tali contenuti potrebbero non essere indicizzati (se utilizziamo iframe, dobbiamo inserire link basati sul testo in modo che google possa effettuare la scansione e di conseguenza indicizzare la pagina)

https://support.google.com

 

CLOAKING – DOORWAY PAGE – SHADOW DOMAIN: SCOPRI COSA LI DIFFERENZIANO

Il Cloaking è una tecnica che se applicata, permette di mostrare, agli utenti un contenuto della pagine differente rispetto a quello che viene fatto visualizzare ai motori di ricerca.

 

Come viene fatto?

Mediante uno script, che riesce a rilevare, mediante l’analisi dei dati relativi dagli user agent e all’indirizzo IP, se la pagine web viene visualizzata  da uno spider o da un utente. Se il server nota che la pagina viene scansionata da uno spider mostra un contenuto differente.

 

Altra tecnica simile è il Doorway Page, google mediante i suoi algoritmi riesce a scovarla molto facilmente e quindi penalizzarla,  lo scopo è quello di creare diverse pagine web fortemente ottimizzate per determinate parole chiave, che mostrano un contenuto senza alcun senso logico. Lo scopo è quello di posizionare il sito nelle prime posizioni della SERP per determinate parole chiave, con il fine di portare traffico verso quei siti e reindirizzare dopo pochi secondi gli utenti verso altri siti.

 

Shadow domain, mediante la quale un utente registra diversi nomi di dominio contenenti una parola chiave molto importante, al fine di scalare posizione nella SERP per poi reindirizzarlo verso un altro dominio.

 

    Leave a Reply

    Your email address will not be published. Required fields are marked*