Fare SEO su Naver: 5 Best Practices

Quasi coetaneo di Google, Naver, il motore di ricerca fatto dai coreani per i coreani, è nato nel 1999 e domina da allora il mercato nazionale con oltre il 70% di share. Il successo iniziale è stato dato essenzialmente dal fatto che si trattava di un portale in lingua Continua a leggere

Vecchi siti vs. nuovi siti: chi vincerà nel SEO?

L'attività del SEO (Search Engine Optimization) è tesa ad ottenere la migliore rilevazione del sito web mediante i motori di ricerca, grazie ad un migliore posizionamento nell'indice di ricerca. Visti i notevoli vantaggi che possono derivare da un'attività di SEO ben svolta, ultimamente quest'attività è divenuta molto interessante e sviluppata Continua a leggere

Majestic SEO: ecco gli add-ons del Search Explorer Alpha

Majestic SEO è uno strumento molto utile che permette di analizzare i backlink. Recentemente è stato rilasciato un aggiornamento per quanto riguarda il suo sistema di ricerca Explorer Alpha (adesso alla versione 0.3). Tra i miglioramenti introdotti, si può riscontrare anche l'aggiunta di un importante funzione che permette di Continua a leggere

Sei modi per migliorare la propria visibilità su web

Non sempre è necessario spendere per far guadagnare visibilità a una pagina web. Basta avere alcune piccole accortezze che rendono il sito e i link ad esso collegati più fluidi, pertinenti e dinamici. In particolare esistono sei modi per valorizzare ciò che già si possiede. 1. Controllare i link di reindirizzamento: Continua a leggere

Come massimizzare ROI e vendite nel periodo pre-natalizio

Per aumentare le vendite online del periodo pre-natalizio, è necessario seguire una serie di accorgimenti. In una lista di sette semplici punti, scopriremo quali sono le soluzioni migliori per implementarle.

Punto 1: Rendi la tua pagina unica

Fai in modo che nel titolo e nella testata siano incluse tutte le parole chiave relative al periodo in oggetto e ai prodotti che vuoi vendere. Si consiglia di non usare più di 30 parole chiave, scegliendo tra quelle più specifiche.

Punto 2: Ottimizza il tuo sito per la lettura su smartphone e tablets

Secondo l’Interactive Advertising Bureau: “il 61% dei visitatori che si collega ad un sito internet tramite smartphone, passerà alla concorrenza, se il sito non risulterà ottimizzato per la navigazione mobile”. Per non perdere clienti e dunque fatturato, sarà necessario rendere il proprio sito ideale per la navigazione da cellulare. Creando innanzitutto un unico set di contenuti, abolendo l’uso di più pagine su più domini.

Punto 3: Controlla la tua posizione e tieni d’occhio i concorrenti

Esistono diversi strumenti per analizzare la propria posizione all’interno dei motori di ricerca. L’obiettivo, è quello di valutare l’efficacia della propria ottimizzazione SEO. Cerca le soluzioni per migliorarla. Per esempio visitando i siti dei tuoi concorrenti valutando, per ogni quesito fin qui esposto, quali sono i punti di forza e di debolezza del tuo sito rispetto ai loro.

Punto 4: Correggi gli errori

Le tue parole chiave sono poche e vaghe? C’è qualche link rotto o doppio? Ci sono contenuti che si ripetono? Il tuo sito è facile da usare?

Punto 5: Migliora la velocità del tuo sito internet

Si stima che: “il 25% degli utenti lasci un sito che ci metta più di quattro secondi a caricare”. Pingdom è in grado di dirti quanto il tuo sito impiega, identificando anche quali istruzioni e file lo rallentino.

Punto 6: Testa e continua a testare

Testa periodicamente il tuo sito. Valuta l’esattezza delle parole chiave. Avvia ripetute analisi per conoscere quali siano le pagine più trafficate e le parole chiave più utilizzate.

Punto 7: Mantieni il tuo sito allineato ai social network

Assicurati di mantenere le pagine Twitter e Facebook aggiornate, iniziando una campagna diversi giorni prima rispetto alle date canoniche prefissate per le vendite. Usa gli hashtag: su Twitter aumentano la visibilità del messaggio che vuoi veicolare.

 

Postato il da Chiara Como in Web Marketing Lascia un commento

Matt Cutts su Google Panda: il segreto è avere contenuti di qualità

Nel 2011, Google ha introdotto anche in Italia una considerevole novità, finalizzata alla classificazione dei siti web a seconda della qualità dei loro contenuti: si tratta di Google Panda, un algoritmo che agisce a livello del sistema di indicizzazione dei contenuti web e che permette di favorire un miglior posizionamento dei siti con materiale originale, utile, chiaro ed esaustivo, in cui gli spazi pubblicitari, pur presenti, si trovano in misura minore rispetto ai contenuti.

Cosa fare se il proprio sito è stato individuato e colpito dall’algoritmo di Google Panda? E quale tipo di contenuti incide negativamente nella valutazione?
Sono questi gli argomenti affrontati dall’ingegnere di Google Matt Cutts in un video, nel quale, per prima cosa, illustra brevemente le modalità e le tempistiche di rilascio di Panda e degli aggiornamenti dell’algoritmo di ricerca.

“Panda è un’innovazione che abbiamo introdotto approssimativamente due anni fa, mirata ad individuare contenuti di bassa qualità: un nuovo aggiornamento veniva rilasciato circa ogni mese, occasione in cui anche i dati erano rivisti e rielaborati.
Si era arrivati ad un punto in cui i cambiamenti, all’interno di Panda, erano di piccola entità ed avvenivano gradualmente: ottenemmo buoni segnali, avevamo raggiunto piccoli risultati, ma gli ultimi aggiornamenti non apportarono grandi novità.”

Così, mentre Panda migliorava le sue capacità nello scovare contenuti di bassa qualità, gli ingegneri focalizzarono la propria attenzione su come e quando i nuovi aggiornamenti avrebbero inciso sui risultati di ricerca.

“Ci siamo detti: andiamo avanti, ed invece di avere un discreto aggiornamento dei dati, il che avviene automaticamente ogni mese circa, procediamo ed integriamo Panda nel nostro principale processo di indicizzazione.”

Ma cosa accade se un sito viene colpito da Panda?
Prima di tutto, ciò significa che il contenuto è di bassa qualità oppure è del tipo “copia-e-incolla” che può essere trovato su molti siti web.
Sarebbe opportuno verificare, nel pannello di controllo Google Webmaster Tools, se è presente qualche avvertimento, in modo tale da poter determinare se il posizionamento del sito nei risultati di ricerca di Google è influenzato negativamente da Panda oppure da qualcos’altro.

“Quindi, se credete che il vostro sito potrebbe essere stato colpito da Panda, l’obbiettivo primario deve essere quello di assicurarsi contenuti di alta qualità: popolari, convincenti, simili a quelli presenti su libri o riviste, contenuti che è piacevole leggere, condividere con gli amici e sui quali è possibile fare affidamento”

Cosa fare, allora, se è la qualità dei contenuti ad influire negativamente sul posizionamento del sito? Sino ad ora, Panda è stato alquanto intransigente su quel tipo di contenuti che Google reputa di dubbio merito.
“Se il vostro posizionamento non è alto come in passato, in generale, è sempre una buona idea interrogarsi sulla qualità dei contenuti del proprio sito: è un contenuto derivato da altri siti? Copiato? Duplicato? O semplicemente non così utile?”

Di conseguenza, Cutts afferma che è proprio questo tipo di contenuti che non permette ai siti di posizionarsi come dovrebbero: Google è riuscito a determinare quali siano i contenuti fondamentali e più apprezzati in base ad alcuni sondaggi svolti su specifici campioni di utenti, e sono proprio i contenuti di qualità che si trovano ai vertici dei rankings delle ricerche.

La campagna di Google per contenuti web di qualità e realmente utili alla comunità della rete continua.

matt-cutts-panda

Postato il da Chiara Como in Google Lascia un commento

Novità: i Google+ shares non migliorano il ranking

Un recente studio della Stone Temple Consulting, ha evidenziato che l’installazione e l’utilizzo nei blog del noto pulsante Google+ Shares, non incrementa in nessun modo il Search Ranking sui motori di ricerca.
La ricerca è reperibile sul sito della società al seguente indirizzo internet http://www.stonetemple.com/measuring-google-plus-impact-on-search-rankings/

Per capire le motivazioni che hanno spinto la Stone Temple Consulting a cimentarsi in tale lavoro, dobbiamo fare qualche passo indietro.

I ricercatori della Stone Temple Consulting, decisero di portare avanti i loro studi dopo aver letto due precedenti ricerche effettuate rispettivamente dalla Searchmetrics http://www.searchmetrics.com/en/services/ranking-factors-2013/ e dalla Moz http://moz.com/blog/ranking-factors-2013 . La Searchmetrics e la Moz avevano infatti annunciato nel giugno del 2013, di aver riscontrato un’incredibile correlazione positiva tra l’utilizzo del pulsante Google +1s e l’alto ranking sui motori di ricerca.

Anche l’ingegnere di Google, Matt Cutts, dopo la lettura dei due studi Searchmetrics/Moz, decise di scovare le prove che quanto affermato non corrispondesse a verità. L’ingegnere esplicitò tale parere sfavorevole sul sito internet di Searchenginewatch, e scrisse due interessanti articoli reperibili qui http://searchenginewatch.com/article/2290337/Matt-Cutts-Google-1s-Dont-Lead-to-Higher-Ranking e qui http://searchenginewatch.com/article/2291402/Correlation-Causation-Coincidence-in-SEO .
Cutts attraverso i suoi due articoli critici avviò un acceso dibattito, e mise in evidenza le differenze sostanziali che passano fra i concetti di correlazione, causa e coincidenza.

Alla luce delle iniziali ricerche con parere favorevole delle società Searchmetrics/Moz e della critica sfavorevole dell’ingegnere di Google Matt Cutts, il team della Stone Temple Consulting maturò dunque l’idea di condurre lo studio sull’impatto nella indicizzazione ed il ranking nei motori di ricerca attraverso l’utilizzo del pulsante Google+ Shares. I risultati ai quali i ricercatori sono arrivati lasciano poco spazio al dubbio. Essi affermano in maniera perentoria che l’installazione e l’utilizzo sui blog del pulsante di condivisione incriminato, non influenza positivamente in nessun modo il ranking nei motori di ricerca. Secondo i ricercatori dunque l’ingegnere Matt Cutts aveva ragione.

Postato il da Chiara Como in Google Lascia un commento

Come avviene il ranking delle pagine web

In passato, i motori di ricerca attribuivano un punteggio al sito in base alle parole che vi erano contenute. Ora non è più così, e i motori di ricerca tengono conto dell’intero contenuto del sito.
Il motore di ricerca riesce a classificare un sito con 2 operazioni:
- il crawling, l’abilità del motore di ricerca di ottenere dati da un sito;
- l’indicizzazione, cioè far entrare le pagine nell’indice del motore di ricerca stesso.
Per far si che il proprio sito venga trovato da, ad esempio, Google, è opportuno utilizzare gli strumenti appositi forniti dallo stesso motore.
I motori di ricerca possono ricevere dei ‘segnali’ dal sito, per diversi motivi come: la categorizzazione, la geo-localizzazione e altri, quindi non esclusivamente per motivi di classificazione del sito, ma anche per attestarne la qualità.
Questi ‘segnali’ possono essere: a livello di sito (come l‘authority), a livello di pagina (come meta dati e localizzazione) o possono essere anche off-site (come i link che mandano al sito).
E’ anche importante sapere che nel mondo del SEO esiste un’enorme quantità di grafici che riguardano ogni singolo aspetto di un sito, e che svolgono un ruolo importante nella classificazione dello stesso su Google.
Infine, i meccanismi che seguono lo spostamento dei rank di un sito sono tre, e cioé:
- il Ranking, il punteggio assegnato ad un sito in base agli algoritmi;
- il Boosting, un fattore che segnala che determinate operazioni potrebbero far salire in fretta il ranking di un sito;
- il Dampening, un fattore che probabilmente causerà un abbassamento del rank del sito, come lo è stato Google Penguin.
Attualmente, i motori di ricerca tengono in considerazione anche numerosi fattori dell’utente che ha effettuato la query di ricerca per riclassificare un sito nella SERP, come la posizione geografica e l’attività temporale dell’utente. I risultati della ricerca “scarpe” cambieranno a seconda di chi fa la ricerca, quindi targettizzate bene il vostro sito a seconda di chi volete che vi trovi.
Per finire, anche se un tempo spammare sul web il proprio sito faceva salire il ranking, ora farlo vuol dire penalizzarlo molto, in quanto il web spam è un’operazione vista male, soprattutto da Google.

Postato il da Chiara Como in In Evidenza Lascia un commento

Responsive Web Design: una case history

Immaginate di essere alla ricerca di una vacanza. Si avvicina la fine dell’anno, ci si trascina un carico di stanchezza e stress che merita d’essere lavato via da un viaggio alla ricerca di emozioni. Avete poco tempo a disposizione, per cui appena vi si libera un istante (in qualunque luogo vi troviate), lo investite nella ricerca di una meta. Il budget è fondamentale, vi orientate direttamente verso questo indirizzo: http://www.alpharooms.com.
Jamie Shuker, Managing Director di Alpharooms, mette a disposizione della vostra caccia alla vacanza perfetta uno strumento duttile e completo. Non solo offre filtri e griglie per confezionare query di estrema completezza, ma adotta con grande attenzione tutti i dettami del Responsive Web Design. Se per RWB intendiamo lo studio di un layout fluido e adattabile alla piattaforma di utilizzo, Alpharooms.com centra in pieno l’obiettivo. Tornando alla nostra ipotetica indagine su quale sia il viaggio migliore al costo più abbordabile, se ci trovassimo in treno, o su un bus, di ritorno dal lavoro e avessimo a disposizione uno smartphone, riusciremmo a visualizzare e utilizzare al meglio il sito, grazie alla grande duttilità del design. Non disponendo (per ora) di una app dedicata, la visualizzazione è ottima anche su dispositivi dal display piccolo (considerate un resolution breakpoint di 480 pixel utilizzando lo schermo in posizione orizzontale). Se in pausa pranzo avete la possibilità di utilizzare il vostro tablet, le maggiori dimensioni del device consentiranno un reflowing e una ridistribuzione del contenuto massiva, in grado sia di ospitare maggiori informazioni, sia di rendere quelle presenti maggiormente leggibili.
Un laptop con schermo di medie dimensioni consentirà di visualizzare la pagina nella sua struttura nativa, quindi con barra di scorrimento laterale e ridistribuzione del contenuto su uno spazio decisamente più ampio. Un Web Designer non può e non deve realizzare un ambiente accogliente quale il sito di un’agenzia viaggi con un concetto di rete sorpassato: la proliferazione di device tecnologicamente avanzati a prezzi competitivi ha esteso il bacino di utenza di prodotti tecnologici e informatici. Un’idea di Web che funzioni deve necessariamente fare i conti con tutto questo: la rete è di tutti, e deve essere per tutti accessibile, qualunque sia lo strumento che intendono usare per entrarvi.

Postato il da Chiara Como in In Evidenza 2 commenti

Scollegare un url dei competitor danneggia il loro ranking?

Ci sono un mucchio di casi in cui il SEO negativo svolge bene la sua funzione e abbassa il ranking di un concorrente. Tuttavia rimane una questione da capire a riguardo, ovvero: Svalutare un url, fa perdere tutto l’impatto sia negativo che positivo che l’url stesso ha nella classificazione di un sito?’
Google così risponde a questa domanda: - Un url può essere svalutato e scollegato dal proprio sito solo dal proprietario del sito mediante l’utilizzo dei Google Webmaster Tools, e unicamente per i siti di cui ha la gestione. Nessuno degli altri siti collegati al cosiddetto url sarà influenzato dalla svalutazione del link in questione.-
Riportiamo quanto ci ha detto Google per far capire che quando si svaluta un URL tramite il proprio sito, questo non svaluta lo stesso url per tutti gli altri siti che hanno un collegamento con lo stesso URL.
Nessuno può essere sicuro che un link venga considerato spam o senza valore da Google. Quindi quando crediamo che un link sia di qualità, Google potrebbe invece considerarlo senza valore, o un link di spam, in base agli algoritmi che utilizza.
Se Google svalutasse l’url per tutti i siti ad esso collegati, i webmaster per minare i competitor renderebbero quasi tutti i siti nulli.
Per chiarire la situazione ecco un esempio a riguardo: in tanti credono ancora che un link da DMOZ sia molto importante per la classifica di Google. Ora immaginate di essere uno di quei migliaia di siti che non sono riusciti ad avere un link su DMOZ. Potreste tramite Google Webmaster Tool svalutare dmoz.org, anche se non è collegato al vostro sito, così che tutti quelli che hanno il link su quella directory ne escano svantaggiati o senza più vantaggio.
Notiamo quindi come questa logica faccia acqua da tutte le parti. In questo modo sarebbe facilissimo danneggiare l’immagine di un concorrente, tutto il web sarebbe pieno di siti svalutati per un motivo o per l’altro, e nessun link darebbe più ranking.
Così Google permette solo determinate svalutazioni, favorendo una competizione di marketing più leale tra le aziende e i privati, permettendo di svalutare solo specifici link, decisi in base all’algoritmo che utilizza.

pulire-profilo-link

Postato il da Chiara Como in In Evidenza Lascia un commento

Come ottimizzare il modello SEO

È risaputo che le tecniche SEO ruotano attorno al concetto chiave di acquisizione: il posizionamento del siti web relativo a determinate parole chiave è la strategia più efficace per conquistare ogni giorno nuovi visitatori. Se un sito web è ottimizzato SEO, gode di una marcia in più rispetto ai concorrenti e attrae sempre nuovi flussi di navigatori. Un primo importante partner di SEO è il PPC. Quest’ultimo, infatti, incrementa il flusso di visitatori consentendo a chi fa pubblicità mirata di acquisire un importante vantaggio sui concorrenti. SEO, tuttavia, deve guardarsi bene dalla concorrenza di Google: se infatti i risultati del primo sono pur sempre un rischio, Adwords offre guadagni certi, a patto ovviamente di investire una certa cifra. Tuttavia bisogna tener conto del fatto che la concorrenza è alta, e che maggiore concorrenza vuol dire prezzi più elevati, offerte d’asta sempre maggiori che costringono chi vuole emergere ad adeguarsi. L’inserzionista PPC, dunque, per attrarre nuovi clienti sarà costretto a passare percentuali di guadagni sempre più alte a Google; il tutto avviene sotto forma di click. La crescita di una società è dunque strettamente legata a investimenti sempre più alti. Detto questo, non ci si può meravigliare se Google cerchi in ogni modo di ostacolare il SEO. È molto importante che un sito goda di una buona reputazione presso il motore di ricerca; ciò è possibile solo evitando quelli che vengono definiti “cattivi comportamenti”, una definizione aleatoria che lascia aperte molte possibilità diverse. In sostanza bisogna cercare parole chiave adatte e mantenere i contenuti il più possibile focalizzati su quei temi; tuttavia ciò non dà alcuna certezza del risultato finale. Se però il risultato non è assicurato, e non si può barare, allora a che serve un SEO? Ciò serve nella misura in cui l’ambiente è ottimizzato in maniera corretta. Tanto per cominciare, bisogna fornire agli utenti i contenuti che cercano, altrimenti essi non torneranno: è importante fidelizzare i click, altrimenti il flusso di visitatori non si traduce in pubblico. Come si fa a sapere se le proposte del sito sono rilevanti per gli utenti? A tal proposito conta molto il confronto con altre piattaforme che offrono servizi simili: solo offrendo qualcosa in più si potrà sperare in nuovi click e in una vera navigazione nel sito.

Postato il da Chiara Como in Google Lascia un commento

Quali sono i migliori Free SEO Tools per l’ On-Page Optimization

La posizione di Google in merito alle pratiche diffuse tra i webmaster non è affatto cambiata negli ultimi anni: semplicemente il motore di ricerca più famoso al mondo ha migliorato la sua capacità di far rispettare le linee guida imposte. Ciò è stato possibile mediante nuovi e più efficaci algoritmi. L’esistenza e la diffusione di Panda, Penguin e Hummingbird hanno modificato radicalmente il modo di fare SEO. Per contro, Matt Cutts di Google si stupisce del fatto che i siti web non recepiscano le linee guide imposte dal motore di ricerca, e per contro cercano di aggirarle. Per balzare in testa alla SERP e, cosa ancor più importante, rimanerci, bisogno mostrare di essere i migliori all’interno della propria categoria, quelli in grado di fornire le informazioni più complete e originali. Per fortuna vi sono diversi strumenti gratuiti che con uno sforzo constante e un’applicazione continua consentono di raggiungere questo risultato. Tra questi strumenti, il primo è rappresentato senza dubbio da un gruppo di parole chiave che siano perfettamente aderenti agli argomenti trattati dal sito, nonché simboliche ed esaustive; tali parole sono un punto fermo del SEO.
La loro selezione, pertanto, deve essere estremamente accurata. In tal senso, il Wordstream libero offre una vastissima scelta (che oltretutto è gratuita). Anche il brainstorming è un efficace strumento di selezione delle cosiddette Keyword Eye Basic, le parole chiave principali. Si passa poi alle Keyword Tool di YouTube – parole chiave adatte a qualsiasi tipologia di contenuto, non solo video – e alla Übersuggest, che si rifà a dati provenienti dallo stesso Google e che consente di sviluppare frasi più articolate. Ogni testo ovviamente va ottimizzato, i documenti in Word vanno convertiti e anche il linguaggio HTML deve essere perfettamente pulito, privo di errori che fanno irrimediabilmente retrocedere il sito. Il Copyscape, infine, è un software che permette, inserendo un URL, di individuare in pochi secondi contenuti duplicati, verificando dunque l’insindacabile originalità di ciascun testo proposto come keywords.

free-seo-tools

Postato il da Chiara Como in Article Marketing Lascia un commento

Come combattere l’implacabile Google Panda

Quando un sito viene colpito da un Panda, la maggior parte delle volte le conseguenze sono drammatiche e in parte anche imprevedibili, soprattutto per quanto riguarda quelle aziende che gestiscono gran parte dei propri affari sul web, e per le quali il traffico entrante è fondamentale ai fini del guadagno mensile. Gli imprenditori colpiti provano rabbia, paura, ma anche una buona dose di frustrazione, poiché nell’immediato sembra non esserci soluzione possibile per far fronte a un attacco del genere. Il Panda colpisce il cuore del sito: il traffico entrante precipita drasticamente (si può arrivare anche al 70%) nel giro di poche ore; un dato gravissimo, soprattutto quando Google costituisce una delle fonti primarie di reddito. Il modo di procedere in questi casi è il seguente: tanto per cominciare si analizza approfonditamente la situazione, esaminando le cause e il modus operandi dell’attacco in atto, quindi si passa all’azione. Indubbiamente vanno progettate numerose modifiche, che tuttavia non devono servire solo nell’immediato: devono anche evitare attacchi futuri, poiché ci sono imprese che vengono colpite più e più volte. Occorre lavorare molto sul SEO, puntando a un approccio radicale. Fissare qualche modifica, attuarla e sperare in qualche miglioramento momentaneo è una tecnica che non solo non paga nel lungo periodo, ma spesso non è utile nemmeno nell’immediato. Le modifiche non servono, serve una riprogrammazione SEO che scongiuri probabili attacchi Panda futuri: l’alternativa è restare nella zona grigia a rischio di ripetuti attacchi Panda in seguito ai quali non solo l’azienda non si riprenderà, ma precipiterà sempre più in basso. Non è un’alternativa remota: vi sono moltissimi esempi di aziende sottoposte a un costante, incessante martellamento di Panda, che a seguito dell’effetto yo-yo innescatosi non riescono più a risollevarsi. Dopo un’analisi completa e approfondita del SEO, dunque, occorre individuare tutte le aree problematiche e va sviluppato il progetto di un sito migliore, più sicuro, privo di punti deboli. Il compito dovrà essere affidato a un professionista SEO di fiducia che guiderà l’azienda passo per passo: se necessario la stravolgerà, consapevole che rattoppare qua e là i danni del Panda è del tutto inutile.

Postato il da Chiara Como in Google 2 commenti

Penguin 2.1: cos’è e come agisce

Venerdì 4 Ottobre è stata lanciata la nuova versione di Penguin, e in meno di due settimane qualche sito è già caduto nel baratro dei motori di ricerca.
Il nuovo algoritmo di ricerca di Google sta cambiando la mentalità di moltissimi agenti Seo, webmaster e redattori di siti. Il nuovo Penguin è stato creato per migliorare il servizio dei risultati di Google, in modo da mostrare i risultati che ritiene i più corretti tra le Serp.

Secondo Matt Cutts, il Google Distinguished Engineer “Penguin 2.1 è stato progettato per colpire lo spam nel web e influirà su circa l’1 % delle ricerche”.

Che fa quindi Penguin 2.1? Questo nuovo algoritmo cerca nel motore di ricerca i siti che ritiene di qualità, ma penalizza drasticamente i siti con contenuti scarsi. Penguin 2.1 si focalizza sui siti che sospetta abbiano comprato link a pagamento o fatto link building non naturali.
“Un link naturale verso il proprio sito si ottiene quando un altro webmaster o blogger, segnala una nostra pagina o il nostro sito come una risorsa di qualità. ” è la definizione lasciata da Matt Cutts.
I link forzati dunque sono inseriti in maniera innaturale per aumentare il posizionamento del sito; il nuovo algoritmo penalizzerà i siti che cercano i link in maniera innaturale, e difficilmente si potranno recuperare posizioni se non si rimuoverà ciò che ha penalizzato il sito.
Saranno quindi tempi duri per i procacciatori di link.

Un punto interessante da sapere però è che la penalizzazione di un sito non sarà più totale, ma potrebbe avvenire per soltanto alcune Keyword, probabilmente quelle più abusate per la costruzione dei link.

Il nuovo aggiornamento di Google influenzerà in particolare:

- I blog che non inseriscono il Nofollow
- I link inseriti nei Forum, come quelli dei profili e nelle firme, soprattutto se l’anchor text è quella utile per il tuo sito
- I link dai Blogroll (e questo sarà problematico per tutti i webmaster)
- Lo spam nelle Directory
- I commenti nei blog con all’interno un link (meglio abilitare i Nofollow nei commenti!)
- I guest post dai siti stranieri con Pagerank alto
- I link in Home dai siti non a tema con il sito linkato potrebbero essere penalizzati

Per nostra fortuna siamo ancora in tempo per migliorare il nostro sito agli occhi di Penguin, e magari ricevere qualche premiazione per le nostre accortezze.
Uno dei consigli che vi diamo è di modificare buona parte degli anchor text che portano al vostro sito, soprattutto quelli troppo palesi e innaturali, così da non subire penalizzazioni per link building innaturale.
Potreste essere ancora in tempo per non essere colpiti da un’eventuale penalizzazione.

Penguin-2-1

Postato il da Chiara Como in In Evidenza Lascia un commento