Quando ne ho parlato la prima volta in questo post, mi sono trovato a dover combattere un muro di scetticismo riguardo alla esistenza di questo "effetto colleterale".
Bene, oggi posso aggiungere:
1) Matt Cutts ne ha confermato l'esistenza (Post su Webmasterworld,), riassunto cosi (se non avete voglia di leggere la serie di 3d su Webmasterworld):
In reply to a question from Brett Tabke, Matt said that there wasn't a sandbox, but the algorithm might affect some sites, under some circumstances, in a way that a webmaster would perceive as being sandboxed.
So, for some sites, in effect there IS a sandbox
2) La Sandbox è cambiata, è più concreta e resta sempre in agguato, soprattutto per i link palesemente artificiali:
The sites that fit "no pages in Bigdaddy" criteria were sites where our algorithms had very low trust in the inlinks or the outlinks of that site. Examples that might cause that include excessive reciprocal links, linking to spammy neighborhoods on the web, or link buying/sellingÂ
Some folks that were doing a lot of reciprocal links might see less crawling. If your site has very few links where you'd be on the fringe of the crawl, then it's relatively normal that changes in the crawl may change how much of your site we crawl.
3) Come percepire il trust di un sito? Ovvero, quanto è "trust" il nostro sito?
Da una prima analisi, sembra che maggiore è il grado di trust di un sito, maggiore è il numero di nuove pagine che Google và ad indicizzare.
Anche se su questo fattore sto ancora studiando Google ;)
Mi occupo di SEO e Lead Generation. Sono appassionato di tecnologia e innovazione e fondatore di alcune importanti testate hi-tech. Attualmente CoFounder e Seo Manager presso Omniaweb, Cofoudner Tag Padova, Hostplace.