domingo, 17 de abril de 2011

Google le.

Puestos del autor son totalmente su propia (excluyendo el improbable caso de hipnosis) y no siempre pueden reflejar las opiniones de SEOmoz, Inc.

Selección de música para disfrutar con este post: The Unforgiven (Metallica)

En octubre de 2007 estaba parado en frente de una casa llena en la sede de Yahoo Sunnyvale. Estaba en una misión para tratar de explicar, con muy pocas pruebas reales, que SEO es algo más que el sitio "optimización". Pude ver lo que venía abajo la tubería alta y clara. SEO ya no es SEO, es diferente. SEO (especialmente para sitios de nivel empresarial) es igual a un maldito buen producto.

Aquí es una diapositiva de la presentación:

Search engines vs. spam timeline

¿Véase el punto aquí? Es la batalla épica frenemy de SEOs frente a motores de búsqueda que atrofia de las técnicas SEO a lo eminentemente apunta a ninguna otra opción sino tener un gran producto. ¿Qué es un gran producto? Es un sitio que quieren ir a, volver a, compartir con sus redes, correo electrónico de sus amigos, etc., (también conocido como construir vínculos naturales y "buzz"). ¿Conseguirlo? Gran contenido y vínculos naturales y zumbido = el nuevo SEO.  Pero no es algo realmente nuevo, que simplemente no ha siempre sido aprobada muy bien.

Hasta ahora. ¿Recordar lo que es como cuando un algoritmo cambio cambia las reglas de SEO? Desde luego no.

Desde esta línea de tiempo por ahí tiró en 2007, no mucho ha cambiado en el lado de "métodos de spam" de las cosas (y no solo halagar el huesito "SEO está muerto"). Pero espere, ¿sabe qué tácticas predicó ampliamente populares desde 2007 faltan desde este gráfico?  Vamos, que actualización de Panda y agricultor. En los días actuales de gris ido de sombrero negro, ¿qué es la táctica de correo basura para ser combatido en este momento?

Si te has nunca molestado a seguir las directrices de Google Webmaster o cualquier cosa que Matt Cutts ha dicho alguna vez en cualquier momento en los último x años, verá que usted, mis amigos de compilación-contenido-para--motores de búsqueda (aún te amo, que intentó), han tenido advertencias sentado allí tan claro como el día. ¿Podría mostrar unos pocos?

Google Webmaster guidelines on content

Matt Cutts blog post snippets on quality content

Cito: "gran contenido tiene que ser el fundamento de cualquier buen sitio, porque contenido mediocre tiende a no atraer enlaces excepcional por sí mismo. Y si está tratando de conseguir enlaces excepcional contenido realmente realmente mierda, vas a estar empujando cuesta arriba.""Desea tener un sitio integral y una de las mejores maneras de hacerlo es tener contenido fantástico, interesante y útil, grandes recursos, mucha información y, a continuación, naturalmente atrae a los vínculos.  "Y, a continuación, los motores de búsqueda desean reflejar el hecho de que la web piensa que es interesante o importante o útil".

Pero construir exactamente qué personas buscan en búsqueda, ¿cómo puede ser malo?

Hay una diferencia entre la creación de contenido para atraer a su público y creación de contenido para atraer a los motores de búsqueda. ¿Pero, su público está haciendo las búsquedas en los motores de búsqueda, derechos? ¿Cuál es la diferencia? Alguien me preguntó recientemente por Suite101.com 'contenido enriquecido' estaba en la lista de perdedor de actualización de agricultores. Aquí es exactamente lo que envié a él en un correo electrónico:

Su obviamente creado para * tráfico de búsqueda *, lo que significa que no es el objetivo de la empresa a invertir todo en crear algo rico y significativo para sus audiencias, pero en su lugar, el objetivo principal es crear contenido para el tráfico de búsqueda, entonces quizás arrojar un poco de inversión en el resto de la experiencia del sitio.  Es un fondeado de Google.Cuando hay "contenido superficial", el sitio probablemente no es el mejor recurso para cualquier persona investigar algo a través de la búsqueda. ¿Desea que los resultados de búsqueda de cómo hacer frente a la depresión que este artículo enlucida con anuncios de Shauntee Jackson (madre de dos niños pequeños inquieto en Fort Worth, Texas), que incluso se dice en el artículo "no soy un experto en depresión" o prefiero tener un sitio que no sólo se ha dedicado a ayudarle a aprender de los expertos acerca de y a hacer frente a la depresión problemas, sino que también proporciona líneas directas, información médica, apoyo de la comunidad y recursos, incluso herramientas para opciones de diagnóstico o autotratamiento.

¿Conseguir lo que quiero decir?  Suite101, como cada cliente que dice que su objetivo de la empresa número uno es obtener tráfico de búsqueda, está haciendo mal.  Su objetivo número uno debe ser proporcionar valor al público.  A su vez que proporciona contenido valioso para los resultados de la búsqueda. Y además de eso, proporciona un limpiador, menos basura y más útil web global. Dejo a Google.

Aprender de los errores del pasado

¿Usted ha escuchado sobre el mantra de "contenido de calidad", derecho? Si has estado en SEO para diez minutos está predicando lo. ¿Por lo que que todos dónde tan mal? ¿Cómo puede toda una innovadora, industria SEO en bola han dejado este ir derecho sobre nuestras cabezas? ¿Cómo pueden las advertencias de la gigante Do No Evil Silicon Valley han sido tan descaradamente ignoradas como si nada nunca llegaría de ellos?

Si sentarse y pensar (y si eres lo suficientemente viejo), podría obtener una sensación extraña de aquellos días de ráfaga de burbuja de dotcom cuando arrojaron millones de dólares de inversionistas en las empresas de internet no personal, sin experiencia, ningún plany sólo existe como una idea de tendencia siguiente exagerada en papel. Algunas personas tenían algunas ideas nuevas y hecho algo de dinero en línea y de repente todo el mundo es construir negocios en línea, con sueños de (ser) sugardaddies bailando en sus cabezas, olvidar un núcleo muy básico y fundamental de un buen modelo de negocios a largo plazo – proporciona valor real a sus audiencias. ¿Muy superficial?

El giro de 2011 de contenido de calidad

Este es el acuerdo. Sabemos que los motores de búsqueda desean proporcionar sitios que personas (aka audiencias) encuentran valiosas. Sabemos que utilizan señales como menciones sociales e influencia y clicks de búsqueda y potencialmente a docenas de otros indicadores de medición de zumbido que van a determinar si un sitio es algo que la gente realmente en o sólo algunos contenidos poco profundas rondando la web tratando de fingir legitimidad como Snooki en una Convención de Mensa. Cómo compartible, emailable, uno de los sitios que la gente, que filtra de forma natural linkable, decirle a todos tus amigos, venir acá y vienen acá nuevamente el contenido es forraje para otro artículo. ¿Pero a medida que cree cualquier contenido en línea Hágase esta pregunta: "yo? ¿Cómo esto será más valioso a mi público que lo están haciendo mis competidores?"  Si usted es la suerte de no tener ningún competidores, entonces sólo participar en la oración.

Pero no tengo que decirles que, porque si te listening…

Google Panda update announcement

…Google ya te lo dije.

Manténgase en contacto para mi próximo post sobre cómo esta actualización no sólo cambia un algoritmo, cambia la web.

XO, Laura

lunes, 4 de abril de 2011

Introducción FutureRank BETA - un rango predecir con precisión sorprendente

Esperamos que haya disfrutado nuestra broma de abril de 2011. Lamentablemente, incluso con la ayuda de Doc Brown, somos incapaces de predecir el futuro. Pero, no dude en disfrutar de nuestros correos "herramienta".

Me complace anunciar la herramienta más reciente de SEOmoz, FutureRank, ahora está disponible en versión beta y es libre de cualquier persona para el las próximas 48 horas (después será PRO sólo). FutureRank intenta predecir lo que podría parecer imposible: qué páginas tendrá lugar la semana que viene, el próximo mes y el año próximo. Antes de sumergirse y probar esta herramienta emocionante usted mismo, es importante entender cómo funciona, y tiene limitaciones.

Iniciar introduciendo una palabra clave, la dirección URL de una página que actualmente ocupa para esa palabra clave y el rango actual aproximado. (¿Por qué aproximado? Porque la mayoría de la predicción se basa en los datos en nuestra tienda de datos existentes; que introduzca se utiliza un punto de inicio para los modelos de predicción.)

FutureRank

Tool

Después de hacer clic en el botón, tardará unos 30 segundos para ejecutar el modelo de predicción (a probar y mantenerlo entretenido mientras esperas). Después de que se hayan completado los cálculos conocerá con los rangos previstos para la semana próxima, el próximo mes y el año próximo y el nivel correspondiente de confianza.

Result

Sé tu pregunta ¿cómo podríamos estar tan seguros con predicciones hasta ahora en el futuro? Bien, depende de una de las hipótesis grande que es importante comprender antes de utilizar la herramienta.

La herramienta FutureRank se ejecuta con una de las grande hipótesis: que las actividades SEO que ha estado realizando para una determinada palabra clave y página permanecerá estable durante los próximos 12 meses. ¿Qué significa esto? Para utilizar las imágenes de Zappos por encima como un ejemplo: vamos a pretender Zappos ha estado gastando aproximadamente 10 horas cada mes para tratar de clasificar para la palabra clave zapatos amarillo (no es probable, pero vamos a pretender). La herramienta se supone que Zappos continuará ese mismo nivel de esfuerzo de 10 horas por mes para la próxima semana, mes y año. Para la herramienta que precisa el nivel de esfuerzo hacia la optimización para una determinada palabra clave / página debe permanecer constante. No importa si no es ningún esfuerzo hacia la optimización o 40 horas a la semana, sólo tiene que permanecen constantes.

La precisión del modelo también depende de la palabra clave porque tenemos una cantidad variable de datos para nuestra cada palabra clave especificada. A pesar de ello, fuimos sorprendidos que tuvo palabras clave que nunca ha visto nuestro sistema sorprendentemente alta precisión--nuestros ingenieros brillantes nos han dicho que pudieron aproximar cambios a un SERP determinado mediante el análisis de palabras en una frase determinada palabra clave. La herramienta es menos precisa, sin embargo, con palabras clave de una palabra que nunca ha visto a nuestro sistema y reflejan las puntuaciones de confianza en la herramienta.

Nos ha estado probando la herramienta internamente para los últimos meses y han sido muy sorprendidos por la precisión. En los casos donde la herramienta incorrectamente predijo el rango, fue a menudo palabras clave que había sido ignorando y comenzó a optimizar pronto después de realizar la primera predicción, pero después de un mes de optimizar encontramos que la herramienta ajustado para este cambio y se hizo más precisa cuando nos faltó una predicción de un mes más tarde.

Nos gustaría que todo el mundo para tener una oportunidad para probar la herramienta y proporcionar comentarios. Después de 48 horas, la herramienta sólo será accesible a los miembros de SEOmoz PRO. Por favor, darle una oportunidad y háganos saber lo que piensa utilizar los comentarios vincular el lado izquierdo de la pantalla.

Try Out Future Rank

Parece como que estamos usando una máquina del tiempo a hacer estas predicciones, y nuestro equipo de diseño tuvo un poco de diversión con esa idea. Aunque me gustaría decir que SEOmoz ha reunido a la potencia de espacio y tiempo, realmente no es como complicado como se podría pensar--sólo requiere una gran cantidad de datos - no condensador de flujo necesarios.

Entre la web para crear nuestro índice de Linkscape de rastreo y monitoreo de datos de rendimiento total de decenas de miles de sitios Web, SEOmoz recopila un amplio conjunto de datos en el gráfico de enlace de la web, filas, el tráfico y la composición de una amplia gama de SERPs. Durante una sesión de lluvia de ideas sobre cómo podríamos utilizar estos valiosos datos para crear nuevas herramientas para nuestros miembros PRO, Cyrus desde el equipo cliente, bromeando sugirió crear una herramienta para predecir el futuro rango de una página web determinada.

Mientras que la mayoría de nosotros rió en la idea, algunos de nuestros ingenieros comenzaron a buscar a nuestros datos y la creación de algunos modelos de predicción simple. Dentro de unas semanas habían desarrollado una herramienta interna alfa que fue moderadamente precisa y después de unos meses de optimización para la predicción del modelo a resultados reales que pensábamos que era tiempo de liberar la beta para la comunidad de Moz.

En resumen, nuestro modelo de predicción se basa en el análisis de las filas previas de la página y las otras páginas en la SERP, los números de métricas de Moz (autoridad de dominio, autoridad de Page, MozRank, MozTrust), y modelos de factores de clasificación del motor de búsqueda de aprendizaje automático. En las próximas semanas publicaremos más detallan explicando más detalles sobre el modelo de predicción.

La herramienta actualmente requiere que se introduzca el rango actual aproximado de la página (en una futura revisión que haremos este automáticamente).Sólo funciona para Google nos búsqueda en este momento (esperamos agregar otras configuraciones regionales pronto) como se mencionó anteriormente, las predicciones son exactas sólo si continúan las actividades de la SEO con el mismo nivel de esfuerzo (independientemente de si es baja, media o alta).La precisión varía según el cual palabra clave que desee analizar más común la palabra clave más precisa la predicción, pero la herramienta funciona surpassingly bien con palabras clave de cola larga, así.

Muchos han estado examinando los méritos de supervisión rango dado cuánto varía según la búsqueda, su geolocalización y la influencia de las señales sociales. Dada la variación entre los usuarios, los indicadores de rendimiento más valiosos pueden ser tráfico o un rango promedio entre una amplia gama de buscadores y ubicaciones. Sin embargo, hasta que exista un método sólido para medir el rango promedio a través de todas las palabras clave, creemos rango es indicador de rendimiento todavía vale la pena (siempre y cuando también está midiendo el tráfico que recibe de dichas palabras clave).

Por favor, pruebe la herramienta y háganos saber qué piensa de la herramienta en los comentarios a continuación.

Try Out Future Rank

¿Qué métricas de enlace debo utilizar? Parte 1 de 2 - pizarra el viernes

Translate Request has too much data
Parameter name: request

 For both personal knowledge and client satisfaction, it's really important to be able to track SEO progress quantitatively as well as qualitatively. One of the benefits and detriments of the field of SEO is that there is a lot of data out there, which helps make SEO tracking easier but at the same time can be overwhelming to even advanced SEOs. In a lot of ways, it's just a matter of choosing which data to use. For instance, just as you wouldn't use a katana to spread chevre, you wouldn't use the PR of a homepage to track a domain's success in search results. In a two part series beginning today, Rand is going to go over the definitions of some of the most popular metrics available right now, as well as the best ways to use metrics in your SEO analysis. Check back next Friday for part 2!

Howdy SEOmoz fans. Welcome to another edition of Whiteboard Friday. I'm very excited to have you with us today. Today we're talking about a question that plagues a lot of webmasters, a lot of SEOs, and a lot of marketers. And that is: How should I use metrics? There are so many metrics on the Web. How should I use metrics to analyze links, analyze pages, analyze sites, use them in my link building practices, and use them in my outreach efforts?

Today I'm going to start with part one of two. In part one of two, what we're going to cover is all of the metrics that are available for links, well, many of the metrics that are available for links from the primary sources, and what each of these mean, because it can be really confusing if you don't know and aren't familiar with these metrics, to apply them in your day-to-day work. But if you know what these mean, you'll be able to have a lot of insight into how they can be used to analyze the sites and pages that you're looking at and what you can do with them. So, let's get started.

First off, we've got three big groups of places that link metrics come from, at least from the SEO perspective. There's Open Site Explorer and Linkscape. There's Google, Yahoo!, and Bing. There's Majestic SEO. All three of these – Google, Yahoo!, and Bing of course being separate ones – but all three of these have metrics that they compose on their own.

That means if you're looking in lots of different tools, for example, I saw someone asking in the SEOmoz Q&A, I'm using this link diagnostics tool, or I'm using Raven SEO. Or I'm using some other tool sources. I'm using Google Webmaster Tools. I'm using the search engines. I'm using a third party tool that's pulling in different information. Virtually all of those sources come from one of these three.

Essentially, they all build their own indices, right? Open Site Explorer and Linkscape builds its own index of the Web. Majestic SEO has their index of the Web. Google and Bing have their own indices of the Web. Yahoo!'s is going away. But all of these can produce individual metrics.

So let's start with Open Site Explorer and Linkscape. Linkscape powers Open Site Explorer. It powers the link intersect tool. It powers your pro web app, and it powers lots and lots of other tool bars, so the mozBar, the quirk search status bar, the SEO book toolbar. And you'll find these metrics in tools like Raven, as well.

First off, mozRank. mozRank is analogous to Google's PageRank. It's essentially using virtually the same formula. Ours is slightly different, so as not to be patent infringing, but it runs the same way. So it's an iterative algorithm running across the Web's link graph, and essentially, it says links are votes. The pages with more votes have higher page rank, and therefore, they cast more important votes. It's sort of like a representational democracy with mozRank and PageRank.

mozRank is for an individual page only, so it's assigned to each URL on the Web. For the 40 billion to 50 billion pages that are in our Web index, most of those pages have very, very tiny amounts of mozRank. So when you see 3, 4, 5, those may not look like big scores, but remember that mozRank is logarithmic. That means that there's a tremendous number of pages with very low scores, and then it's increasingly harder and harder to get more and more mozRank.

For example, a mozRank 5 is actually, I think, eight and a half times more important. It means it has eight and a half times more link juice, or more mozRank, than a mozRank 4 web page. So this is a very good thing to know. And that's why it's so granular, why it shows two significant digits, like a 4.56, because 4.56 might actually be substantially more than, say, a 4.21. That's quite a big difference.

mozTrust is similar to mozRank, but it does something very unique. It biases so that mozRank, or link juice, can only flow from trusted sites, and then it calculates the same type of thing. Essentially, what it's saying is not every page on the Web passes mozRank, only these initial trusted seed sets of sites, which we essentially gather the same way as we've seen search engines do it in their research papers and patents. Identifying those sites and having those, I believe it's around 250 or 350 sites passing out mozTrust.

So the more mozTrust you have, if I've got a 3.75 mozTrust and I move up to a 5.05, if your mozTrust moves up in this fashion, this means that not only have you gotten more links, which will be reflected in your mozRank as well, but it means that you've gotten more trusted links. It means that the sources that are linking to you are coming from better and better places, or the sources that are already linking to you are getting more trust from the sites that are linking to them. Those are both possibilities.

Domain mozRank and Domain mozTrust are essentially exactly the same as mozRank and mozTrust, but they happen on the domain-wide level. So the problem with looking at mozRank on a homepage or PageRank on a homepage is that it's not actually for the domain as a whole. If I go to SEOmoz.org and I look at its homepage page rank, it used to be an 8 and now it's a 7. That doesn't actually tell me how important the whole domain is. It just tells me how important the homepage of that site is. That's not what I want. What I want is how important is this domain on the Web compared to all the other domains. That's exactly what these two metrics will do. The first one, mozRank, will look at raw popularity, raw importance. The second one, mozTrust, looks at trustworthiness of that domain.

Next, you get some metrics that you should be pretty familiar with. They're fairly self-explanatory. So there's number of links, and number of links will include all the kinds of links that we know about – followed and no-followed links, external and internal links to a page, 301 redirects to a page. Soon, they're going to include rel=canonicals, the number of pages that rel=canonical to a page, and we'll be marking those out as that's become a pretty big part of the Web now. With each of these, you can dig deeper. So if you're in Open Site Explorer or if you're in the mozBar, you can dig deeper into a full list of metrics and get all of those.

Number of linking route domains is similar in that it describes the number of links. But rather than saying this is how many unique pages have a link here, it's how many domains as a whole have a link here. Number of linking root domains is well correlated with Google's rankings generally indicating that domain diversity, getting links from lots of different places, is quite good. In fact, the best single metric, non-aggregated metric, that we've got to predict Google's rankings with correlation data is the number of Linking C-Blocks. C-Blocks is a little bit tricky. A domain might be something like SEOmoz.org, but a C-Block might include SEOmoz.org and OpenSiteExplorer.org, and I think we might host a few other domains, SEOmoz.com, which redirects to SEOmoz.org.

Linking C-Blocks is essentially saying, "This C-Block of IP addresses, how many of those are there on the Web that contain at least one link to this page?" So looking at linking C-Blocks can be quite a good metric, as well. This is currently in our API, so you can download and look at it. I think a few different tools use it. Soon it will be in more of our places. The new version of Open Site Explorer that's coming out in July should have that.

Page authority and domain authority are a little complicated. Basically, imagine all of these metrics and lots more of these metrics, lots more pieces and factors of these metrics being calculated using a machine learning model against Google's search results to try and predict what single metric best correlates by aggregating all of these and multiplying them and dividing them and using all sorts of fragments of them to get the highest correlation numbers.

Page authority is a number from 0 to 100 that describes how important or how potentially well this page could rank given no other features about it. So we don't know what query it's trying to rank for. We don't know the anchor text that it's trying to rank for. We don't know what keywords are on that page or anything. All we know is based on the links, how well-correlated is this particular page with rankings?

The second one, domain authority, is the same thing of 0 to 100, but doing a similar thing for domains. It's essentially saying, "How well would this domain overall perform?" As you can imagine, correlation with page authority is better than domain authority. We're going to talk about how to use all these metrics in the next segment, where I might possibly be wearing this shirt. That's just a coincidence, never mind that.

Let's jump over to Google, Yahoo!, Bing, and Majestic and talk about some of their metrics, as well. Google obviously calculates PageRank internally. They have PageRank scores for every page on the Web. My understanding is that's updated multiple times per day. But in the toolbar, which is where we get the data, we get the data in the Google toolbar, which looks like this and it's colored in and it's a 4 out of 10, that amount of PageRank.

The Toolbar PageRank is only updated every three to nine months, so not particularly regularly. It doesn't always reflect the true numbers. Sometimes Google will penalize pages or sites by removing their Toolbar PageRank, bringing down their Toolbar PageRank if they think they've been selling links and they want to show that they know about those sold links, that kind of thing.

The toolbar number from 0 to 10 is a rough indication of how important Google thinks that page is. But I'd be careful about relying on it because it's not updated very frequently. You could launch a new site tomorrow and it would be three or four or five months before it showed PageRank, and yet it would have PageRank probably starting the next day when you got links into it. PageRank does correlate very well to mozRank. They're usually just a few, .5 or .6 apart. But mozRank updates every time the Linkscape web index updates, which is once a month. PageRank is much less frequently.

Homepage PageRank or what some people call Site PR – they'll say my website is PR 6 or my website is a PR 5. This is a fallacy. There are no PR 6 websites. There is only a website whose homepage has a PageRank score of a 5 or a 6 or a 7, whatever it is. Site PR is not a particularly good metric, and it doesn't actually describe the site. Sometimes you'll find sites that have a Homepage PageRank of a 5, but internal pages that are a 6 or a 7. That happens quite frequently when there are important resources on those sites that get more linked to than the homepage.

This number can be found in Google's toolbar, and there are lots of other toolbars that you can add in and many tools show it. The SEOmoz toolset doesn't show it. Some of you might know that Google asked us a couple years ago not to show PageRank in our web app or our toolbar anymore. So we took it out because we wanted to stay on good terms with those guys.

The number of links that Google shows, this is via the link colon command, so link:www.SEOmoz.org will show a number of links that are not particularly interesting or accurate. It's usually a very small sub-sample. I think for SEOmoz they show maybe 1,500 or 1,800 links. Obviously, there are several hundred thousand, maybe millions of links pointing to SEOmoz.

The reason that they do that is because they don't want to show all the link information that they've got. If you go inside Google Webmaster Tools, they will show you a more accurate, but still not wholly accurate, link count. But that will only be seen for your particular site that you've registered in Google Webmaster Tools. So do be aware of that.

Yahoo! also shows the number of links. They show kind of two link numbers. One comes from Site Explorer, which may or may not be going away. We still haven't heard from Bing about what's happening with that. The other one is from the Yahoo! Web Index, which has gone away in a lot of places, but you can still find it in a few countries. For example, if you go to Yahoo! India, which I think is IN.Yahoo.com, you can still run link commands against that web index and see numbers of links. They don't exactly match up to the Site Explorer numbers, but it's okay. When you're using Site Explorer and the Yahoo! index, it's more about trying to find who's linking to this page, particularly if Open Site Explorer or Majestic is not showing that data. Yahoo! is often fresher and crawls more deeply than some of those other ones.

Let's move into Majestic SEO. Before I get started, I just want to say, although they're a competitor, I have a lot of respect for these guys. They've done some great work. I am not intimately familiar, so I hope I'm going to describe them accurately. As far as I know, from talking to the guys over there, what I've got is pretty right, but someone can correct me in the comments if I'm wrong.

Majestic does show, like SEOmoz, the number of links. That's just the raw number of pages that are linking to a particular site. That's not a key metric, though. The key metrics that they usually show right on top in the new Majestic explorer is, I think, number of external back links, which essentially says how many links come from sites that are not this site, not counting internal links.

They also show referring domains, which is their word for linking root domains, I believe. I think that's root domains, not sub-domains, when you look at referring domains. They have numbers of unique IP addresses as well as number of Class C subnets. So, Class-C subnets correlates to Linking C-Blocks.

Here's the tough part. When you look at these numbers, SEOmoz's numbers, Majestic's numbers, Yahoo!'s numbers, Google's numbers, they're all different. The reason is pretty obvious, because they all maintain different web indices. Majestic has an extremely large web index, much larger than Yahoo!'s or Linkscape's, but it's quite old. There is a lot of old data in there that hasn't necessarily been recrawled that might exist or might not. There's not a lot of canonicalization and de-duplication of content, which the search engines and Linkscape are relatively better at.

Google and Yahoo!, obviously, have great web indices, but they expose much less data about them and a lot fewer metrics. SEOmoz has a smaller web index that's updated once a month, 40 billion or 50 billion pages, versus Google, Yahoo!, and Bing, which are probably in the 100 to 110, maybe 120 billion range. So when you're comparing these numbers, you're not always going to get good similarity between them.

What you will find, though, is if you compare competitors or if you compare different websites with each other, so if I compare SEOmoz.org and Search Engine Land and SEO Book and Webmaster World, I should see that usually, in each of these cases, the link numbers are going to be higher for one of them and lower for another one within a certain percentage range. Those are the numbers that you want to pay some more attention to.

Now you've got a really good background on all these link metrics, a ton of link metrics. Next week, we're going to talk about how to use and apply these link metrics in your link building outreach processes. Take care. See you later.

domingo, 3 de abril de 2011

Deshacerse de las páginas más bajo rendimiento [Panda estrategias]

Puestos del autor son totalmente su propia (excluyendo el improbable caso de hipnosis) y no siempre pueden reflejar las opiniones de SEOmoz, Inc.

Esta mañana yo establecí un desafío. Con la inspiración de recientes excelentes ideas, estrategias y artículos acerca de la actualización de Panda, decidió ver si podía improvisar una rápida estrategia para deshacerse de páginas que pueden ser consideradas como "baja calidad" a los ojos de actualización más reciente de algoritmo principales de Google.

Me di dos horas para obtener los datos y reunir a este puesto, con la intención de que podrá descargar la plantilla y escoger su análisis desde donde dejó.

Esta metodología debe ayudarle a identificar el mal rendimiento de las páginas que tienen pocos, si los vínculos y un rebote media alta tasa en un amplio espectro de palabras clave. Esto puede ayudarle a identificar a los candidatos de cualquier página que necesitan un replanteamiento.

Pásate a análisis y desplácese hasta fuentes de tráfico > buscadores:

landing pages in GA

Ahora, seleccione "google"

Google traffic GA

Asegúrese de que puede obtener sus manos sobre un montón de datos mediante la inserción de la & límite = 50000 consulta en la URL de tu informe. Esto puede ser útil más tarde!

Estamos interesados en el rendimiento de la página de inicio, así que en su columna de ordenación de la izquierda, seleccione "página de inicio"

sort by landing page

Aceptar so far so good – ya debe tener un rico conjunto de datos todos tuckered hasta en Excel. Para hacer que los datos en una tabla, resáltela y pulse ctrl-L del teclado.

Excel data

A continuación, vamos a exportar todos los datos de los vínculos que abrir sitio Explorer puede darnos y Utilice BUSCARV para agregar el número de vínculos a cada URL en nuestra mesa. E intenso wi!

OSE - SEOgadget

Si no está familiarizado con BUSCARV, consulte Guía impresionante de Mike a Excel para SEOs. Crear un informe de páginas principales Open Site Explorer (mi informe favorito desde cada vez), descargar los datos y tirarlo en una ficha de Excel llamada "Top páginas".

Sugerencia: con el propósito de esta entrada de blog, deberás eliminar el nombre de dominio de los datos de abrir sitio Explorer. Un buscar y reemplazar para su dominio, reemplazando la URL de dominio con nada, como esto:

Find and replace in Excel

A continuación, vas a necesitan combinar los datos de análisis con los datos de las páginas principales de OSE. Crear una nueva columna de los datos de análisis llamados "Enlaces" y agregar su BUSCARV, igual a ésta:

vlookup in data

Punta Pro: use si.error para descartar cualquier error N/A desagradable, reemplazándolos con un 0, así:

= Si.error (BUSCARV ([@ [página de inicio]], toppages, 6, 0), 0)

Con un conjunto completo de datos, ahora usted puede crear la tabla dinámica. Inserte una tabla dinámica y configurar los filtros, etiquetas y valores como este:

Filters and values

Al final de mi mashing de datos, se me ocurrió con esta tabla:

A finished table

Sólo puedo imaginar lo que podrían ser estos datos en un sitio contenido extremadamente delgada, de "baja el valor". Cualquier página con un rebote de muy alto nivel, medibles de tráfico y baja / no hay enlaces podrían causar preocupación y hay sin duda unas pocas páginas en esta lista, a que me gustaría tener un vistazo.

Si desea tener un vistazo a las páginas, puede descargar este documento de Excel aquí:

http://bit.ly/PandaData

Tengo una teoría de trabajo que es bueno tener una imagen completa del rendimiento de una página de inicio. En principio, se podría crear una imagen más completa utilizando datos de palabra clave. Piensa así: si una página tiene una tasa de rebote ligeramente por debajo de par, con los datos de la palabra clave intactos puede investigar el problema un poco más. ¿Existe una palabra clave específica que está causando el problema? ¿Cómo se dirigiría este problema?

Espero disfrute utilizando los datos y me encantaría escuchar sus ideas sobre cómo podría desarrollarse aún más este tipo de análisis. Feliz número crunching!