• cerca

SEI GIA' REGISTRATO? EFFETTUA ADESSO IL LOGIN.



HAI DIMENTICATO LA PASSWORD? CLICCA QUI

NON SEI ANCORA REGISTRATO A WEBAREA? CLICCA QUI E REGISTRATI !

La Negative SEO. Come difendersi da attacchi malevoli che penalizzano il nostro sito: il DISAVOW LINKS TOOL

di :: 27 febbraio 2018

Come difendersi da attacchi malevoli con il DISAVOW LINKS TOOL

Il link in ingresso sul tuo sito, detti backlinks, sono importanti, ma solo se sono link di qualità e provenienti da siti autorevoli.

Da un punto di vista SEO, una strategia di link building, cioè il crearsi una rete di link in ingresso, è molto importante: ogni sito dovrebbe cercare di ricevere links da molti siti, ma che siano siti di qualità.

Il massimo per il notro sito sono i link ricevuti da siti autorevoli per loro iniziativa (ad esempio un articolo su "La Stampa" che parla di noi e mette un link al nostro sito), ma una strategia di link building non può attendere l'iniziativa altrui: dobbiamo crearci una rete di link, ad esempio attraverso la nostra presenza in blog o forum tematici, con nostri articoli o collegamenti al nostro sito. Il link building è un tema ampio e ne rimandiamo la sua trattazione ad altro articolo.

Cos'è la Negative Seo

Mentre la SEO aiuta a migliorare il posizionamento naturale sui motori di ricerca, la Seo Negativa porta al risultato opposto e cioè a penalizzazioni da parte di Google e a perdita di posizionamento nelle SERP (risultati del motore di ricerca).

La Negative Seo può essere determinata da nostre errate azioni, ma volute, oppure da attività altrui di cui siamo incosapevoli volte a danneggiarci.

In generale, la Negative Seo è determinata dall'arrivo di traffico da link non naturali, da siti "spazzatura" cioè da siti non di qualità o autorevoli o attinenti dal nostro sito. Ad esempio per un nostro scambio link, o per l'acquisto di link al solo scopo di aumentare il traffico sul nostro sito. Queste azioni volute dal propietario di un sito, ed abusate sopratutto in passato, penalizzano il nostro sito web.

Ma il nostro sito può essere oggetto di Negative Seo per un attacco esterno: è una azione realizzata da parte di chi vuole danneggiarci e penalizzare il nostro sito. Ebbene si, la rete non è poi così diversa dalla vita reale. L’algoritmo di Google, che si occupa di determinarne il posizionamento, analizza i link in ingresso sul siti web: se individua molti link provenienti da siti di bassa qualità, o hackerati, o da siti appartenenti ad una PBN (tra poco vediamo cos'è), assegna una penalizzazione al sito che li riceve, e quindi una perdita di posizioni nelle SERP.

Dopo un attacco di negative SEO, Google ci penalizza, perderemo posizioni ed è difficile tornare ad occupare le vecchie posizioni, sopratutto nel breve periodo. Dovremo attendere molto tempo per tornare ai livelli precedenti all'attacco.

Vediamo quali sono le principali FONTI DI TRAFFICO NEGATIVO

Le PBN

Le PBN, "Private Blog Network", sono siti ideali per generale il traffico malevolo. Si tratta di una rete di siti creati esclusivamente per la creazione di link, e spesso sono di un singolo propietario.

Una rete PBN viene normalmente costruita acquistando domini appena scaduti: acquistando un dominio appena scaduto ne acquisiamo anche il traffico, il posizionamento e l'autorevolezza. Su questi siti vengono inseriti link al nostro sito con l'attributo "rel=dofollow", che indica a Google di seguire il link.

Se Google individua una PBN utilizzata a questo scopo può penalizzare tutti i siti collegati.

Come difendersi dalle PBN: il DISAVOW
Per prima cosa dobbiamo monitorare il traffico in arrivo sul nostro siti, e in particolare i backlink, attraverso strumenti messi a disposizione della rete, gratuti e a pagamento, tra cui ricordiamo Hrefs, SEMRush, Majestic, Monitorbacklinks

Questi strumenti evidenziano graficamente picci di traffico e link di provenienza. Un picco insolito ed inaspettato è una ragione sufficiente per esaminare i siti da cui questo traffico arriva. Verifica anche il paese di provenienza di questi link: spesso traffico non voluto arriva dall'estero.

Anche Google Analitycs è un ottimo strumento di analisi gratuita. E tra gli strumenti gratuiti utilizzati da qualunque webmaster ricordiamo la Search Console di Google o il Bing WebMaster Tool: ti registri, indichi il sito o i siti da monitorare, dopodichè per ogni sito avrai a disposizione vari strumenti di analisi dei link in ingressi e tool per intervenire per fermare questi link non voluti.

Sulla Search Console di Google accedi a "Link che rimandano al tuo sito" e vedrai la lista dei domini che portano traffico al tuo sito.

Nel Bing WebMaster tool puoi monitorare questi link dalla sezione "Collegamenti in entrata".

Hai individuato domini o spefiche pagine da cui proviene traffico non voluto? Il passo successivo è comunicarli a Google e a Bing. Vediamo come.

Su GOOGLE utilizziamo questa procedura:

  1. Registrati nella Google Search Console, e crea un profilo per il tuo sito web (o per i tuoi siti)
  2. Crea un file in formato txt rispettando una precisa sintassi.

    Per rimuovere domini, nel file scriviamo uno sotto l'altro i domini interessati in questo modo

    domain:sitomalevolo1.it
    domain:sitomalevolo2.it
    .......

    Per rimuovere specifiche pagine, nel file scriviamo una sotto l'altra, le url delle pagine interessate in questo modo
    http://sitomalevolo1.it/pagina.html
    http://sitomalevolo2.it/pagina.html
    ........

  3. Creato il file, accedi al tool DISAVOW LINKS, seleziona il sito registrato nella search console (se hai più siti registrati)

  4. Clicca su "rifiuta link"

  5. Segui le istruzioni e carica il file.

  6. Google, ricevuto questo file, non terrà più conto di quei link per determinare il posizionamento del sito web nelle sue SERP. Ma potrete dovere attendere alcune settimane prima di ottenere questo risultato.

Su BING la procedura da seguire è questa:

  1. Devi registrarti al BIng WebMaster Tool, e configurare il tuo sito (o i tuoi siti)
  2. Accedi alla dashboard, seleziona il tuo sito, e vai alla sezione "Blocca URL"
  3. Qui devi inserire le url, ad una ad una, selezionando "directory" se vuoi escludere un dominio, o "pagina" se vuoi escludere una specifica pagina di un dominio

I siti hacherati

Un altro metodo per generare questo traffico artificiale è tramite l'hacking di un sito web. Pensiamo ad un sito (o più di uno) con un buon traffico, magari realizzato utilizzando un cms come Wordpress o Joomla, in cui si è introdotto un hacker ed ha inserito, nelle immagini e nei testi, dei link al sito della incosapevole vittima (il sito a cui puntano questi link).

L'hacker spammer potrebbe anche inserire link a pagine inesistenti del tuo sito: se il link fosse seguito da Google, e il tuo server fosse mal configurato e rispondesse con uno status code 200 (cioè con una risposta di pagina disponibile), la pagina non esistente potrebbe essere indicizzata e quindi determinare un peggioramento della qualità globale del sito web agli occhi di Google con la conseguente perdita di posizioni nelle SERP.

Oppure può essere il nostro stesso sito ad essere hackerato, attraverso l'iniiezione di un malware con la conseguenza che Google potrebbe metterlo nella sua lista nera ("black list") e fargli perdere posizioni nelle SERP, o visualizzarlo con una schermata rossa che recita: "questo sito potrebbe essere compromesso".

Come difendersi dai siti hacherati

  • Nel caso di siti che generano traffico verso il nostro sito, occore usare gli stessi strumenti di monitoring visti per le BPN.
  • Nel caso di malware inseriti sul nostro sito, l'unico modo per difenderti e controllare periodicamente il codice di programmazione (se sei un programmatore), e navigarlo spesso.
  • Verifica che il tuo sito web, quando vengono effettuate richieste a pagine inesistenti, risponda con lo status code 404 (che indica una pagina non trovata) e non con lo status code 200 (che indica un ok).

Scraper

Lo "scraper" consiste nella clonazione dei contenuti di un sito web su altri siti web, normalmente effettuata tramite software dedicati. O utilizzando gli RSS che rendi disponibile sul sito web da cui questi software possono attingere in tempo reale i contenuti.

Come sappiamo, Google combatte la duplicazione dei contenuti e quando trova contenuti duplicati su più siti, di solito assegna l’originalità ad un sito e tutti gli altri contenuti vengono considerati copie a cui non viene data visibilità nelle SERP. Google dovrebbe essere in grado di identificare la fonte originale del contenuto, ma potrebbe anche non capitare, ad esempio quando la copia venga indicizzata prima dell’originale.

Come difendersi dallo scraper

Lo strumento più semplice è cercare su Google il tuo contenuto esatto, e per farlo inserisci il testo nel campo di ricerca mettendolo tra le doppie virgolette ("testo da cercare"): in questo modo chiedo a Google di cercare solo i testi esattamente uguali a quelli indicati nelle virgolette.

Uno strumento messo a disposizione della rete per monitorare le clonazioni di contenuti è Copyscape: inserirsci la url delle pagine del tuo sito per scoprire se ci sono nella rete tue pagine duplicate.

Se il tuo sito presenta dei feed RSS, che come detto possono alimentare i contenuti di siti altrui, potresti visualizzare nel feed solo un estratto dell'articolo.

Se individuiamo pagine copiate abbiamo varie trade da percorrere.

  • la prima è contattare il webmaster chiedendo di rimuovere il pezzo. spesso tuttavia a queste richieste non otteniamo risposte.
  • in caso di insuccesso, lo step successivo è avvalersi del rapporto di violazione del copyright di Google.
  • infine, l'ultima possibilità è utilizzare un legale e far così valere le tue ragioni.

Link "site wide"

Sono link inseriti nel footer dei siti, o in parti del sito presenti in tutte le pagine. Il classico esempio è il "powered by" apposto come firma nei siti che realizziamo. Vi suggeriamo di lasciare la firma ma di eliminare questi link, o al massimo di lasciarne veramente pochi.

Attacchi DoS

L'attacco Dos (Denial of service) è un attacco generato da un hacker con lo scopo di rendere il nostro sito lento e quindi non più visibile. Generando un numero elevatissimo e simultaneo di chiamate al vostro sito web, questo non sarà più in grado di rispondere alle richieste, e tra queste ci sono quelle generate dal crowler di Google "googlebot" che, verificando questa lentezza o non raggiungibilità del sito, lo penalizzerà.

In questi casi, se non siete sistemisti, l'unica cosa che potete fare è rivolgervi al fornitore dello spazio web e farvi attivare le contromisure a livello server.

Approfondimenti

x

ATTENZIONE