Panda Update


Actualización del post:

Lo comenté ayer en Twitter. El que realmente es un crack de esto y se ha pegado la empollada con mil papers ha sido @CarlosRedondo 

Lo del panda update va a ser la comidilla de los próximos meses. Ahora toca el momento en el que todos nos dedicamos a hacer cabalas y demás. A mi desde el principio me pareció que lo del puto oso panda era más negocio que cualquier otra cosa y mirando los sitios penalizados cada vez lo veo más claro.

wikio.es	128.695	347.080	-218.385	-62,92 minube .com	17.692	53.653	-35.961	-67,03 que .es	63.831	95.726	-31.895	-33,32 datines .com	13.098	44.753	-31.655	-70,73 emagister .com	26.640	56.465	-29.825	-52,82 dooyoo .es	17.954	46.559	-28.605	-61,44 mercamania .es	14.889	39.704	-24.815	-62,50 twenga .es	25.219	48.092	-22.873	-47,56 finanzzas .com	17.555	37.738	-20.183	-53,48 antag .es	13.455	32.395	-18.940	-58,47 vinagreasesino. com	10.673	28.968	-18.295	-63,16 online .com.es	2.547	19.214	-16.667	-86,74 qweb .es	7.439	23.742	-16.303	-68,67 destinia .com	140.238	156.129	-15.891	-10,18 todocoches .com	5.722	19.927	-14.205	-71,29 hotfrog .es	30.437	44.005	-13.568	-30,83 hoteles .es	18.904	32.054	-13.150	-41,02 uptodown .com	89.853	102.153	-12.300	-12,04 educaweb .com	11.622	23.726	-12.104	-51,02 malavida .com	44.291	56.179	-11.888	-21,16 parasaber .com	8.023	19.023	-11.000	-57,82 lukor .com	7.411	17.738	-10.327	-58,22 mister-wong .es	3.887	9.110	-5.223	-57,33
 
(fuente Searchmetrics)

Los sitios penalizados se dan de leches con Google Produts / Google Hotel Finder / Google News / Google Local – En francia se han cargado también a yelp…

Es coña, no creo en una teoría de la conspiración.

Pero sí creo que en algunos entornos más competitivos o estratégicos se han podido poner más duros que en otros, (también se hacían más barbaridades en ellos así que…l ) lo que sí que es cierto es que hay una serie de patrones que se repiten y una serie de aspectos que hay que tener en cuenta.

El listado de Factores de Google panda:

Algunas métricas de las que hablamos: Tiempo de permanencia CTR en Google (Impresiones/Clics en las SERPs) Porcentaje de rebote Velocidad de Carga de la web (Gracias a SpamLoco) Cantidad de páginas vistas Cantidad de +1 en Google Cantidad de menciones en Facebook Cantidad de menciones en Twitter Cantidad de menciones en dig, misterwong, delicious, etc… Porcentaje de fidelidad de usuarios (usuarios nuevos/reincidentes) Cantidad de búsquedas directas de tu sitio en Google (quizás) Porcentaje de rebusquedas

Este listado lo he copiado de la página de Bruno , es un listado muy bueno, muy ajustado a la realidad de panda update, yo lo conocía porque lo  que explicó Carlos Redondo en el SEO Sarao varios meses antes, lo  compuso con estudios de algunos papers y diversas fuentes  tipo Searchengine   y SEOMOZ. Vamos  investigando por su cuenta, ensayo error, preguntando y analizando. Como se hacían antes las cosas….

Seguro que a todos los asistentes les falta en ese artículo un “como dijo…” a mi personalmente me ha recordado mucho a la imagen de “amanece que no es poco” en la que dice que le ha quedado el libro muy parecido a…”
Internet es en un % muy elevado un contro ctr + c/ ctr+v , eso es cierto. Los griegos decían incluso que las realidades sobre las que se puede escribir son 5 (creo recordar) y que todo eran variaciones, en gran medida se mantiene, pero es en las variaciones / ampliaciones en lo que se dá valor a las cosas, por eso, el post de Bruno, con aparentemente  un copy paste tan efectivo  me ha decepcionado. Lo de “Solución” copiando las preguntas que el bueno de Matt proponía… Bueno, decir que “google recomienda” es como hablar de lo humano y lo divino, te puedes enrollar horas sin avanzar absolutamente nada.

Como solución a Google Panda, vamos a cansarnos de leer cosas, esto viene de SEW

  • Decide which URLs are canonical and create strong signals (rel canonical, robot exclusion, internal link profile, XML sitemaps)

  • Decide which URLs are your most valuable and ensure they are indexed and well optimized
  • Remove any extraneous, overhead, duplicate, low value and unnecessary URLs from the index
  • Build internal links to canonical, high-value URLs from authority pages (strong mozRank, unique referring domains, total links, are example metrics)
  • Build high-quality external links via social media efforts

Lo de canonical sí que os lo puedo garantizar de primera mano. Mis principales beneficiadas han venido por ahí. Quitar ponzoña y lo de los entornos sociales, bueno, ya está bastante mascado. Muy bueno el artículo de la evolución de lo social en las búsquedas.

Pero bueno, me estoy alejando del tema.

Lo importante del panda update

No es el listado en sí, que iba a tener más peso el entorno social, es obvio por el entorno en el que nos movemos. Lo realmente interesante es de dónde está tomando esa información. Es lo malo de copiar y pegar las cosas que no te plantes las salvajadas que se pueden llegar a poner.

Volvamos a la lista de factores del Panda Update, a mi me acojona bastante todo esto.

Tiempo de permanencia (Qué entornos de Google recogen la navegación / interacción dentro de un sitio)
CTR en Google (Impresiones/Clics en las SERPs) (Este es más bien fácil de tener)
Porcentaje de rebote (Google >es origen de> Página destino >es origen de> resultado de búsqueda Velocidad de Carga de la web (Gracias a SpamLoco) Cantidad de páginas vistas (misma coña de lo del tiempo de permanencia) Cantidad de +1 en Google (fácil) Cantidad de menciones en Facebook (fácil)
Cantidad de menciones en Twitter (fácil)
Cantidad de menciones en dig, misterwong, delicious, etc… (fácil)
Porcentaje de fidelidad de usuarios (usuarios nuevos/reincidentes) (otra vez la broma de las métricas de interacción) Cantidad de búsquedas directas de tu sitio en Google (quizás) (este quizas me encanta, asentando que todo lo demás es ley) Muchas búsquedas directas significa interes por la marca, retención, uso... ) Porcentaje de rebusquedas (fácil)

Google está teniendo en cuenta la interacción del usuario en aquellos lugares en los que puede no tener huella física, por lo que el Panda Update tiene más base de la que se comenta por ahí. Todo esto son ponderaciones de pesos, es exactamente lo que hacen las empresas de behavioural targeting (como la que compró google hace tiempo) – Un modelo de navegación implica un efecto, pero lo que ha cambiado ha sido el entorno de rastreo.
Os dejo con el estudio completo de SEOMOZ:

Medir Facebook – Twitter – Google + en Google Analytics


Hay que reconocerlo, pese a que algunas cosas no funcionan y tiene unos fallos de usabilidad serios, la nueva versión de Google Analytics es una pasada.

  • No entiendo porqué no han puesto el autocompletar en algunos combos de búsqueda
  • Tiene mil manías con no mantener el intervalo de fecha preseleccionado
  • Echo de menos algunos dashboards que me gustaría crear y hay muchos que podrían ser secundarios.
  • Se ve y se maneja de pena en dispositivos móviles

A fin de cuentas es como el primer Iphone, una barbaridad con carencias básicas.  Montones de juguetes y en la parte de redes sociales, un ejemplo de sencillez.  (aunque una vez que sales de un blog, intentas poner el módulo que ofrecen los diferentes entornos sociales con Iframe y ahí se fastidia, pero para los que aceptan JS externo en su sitio estarán encantados)

Ayer comenté la guía que me había encontrado de cómo medir Facebook / Twitter y Google + en Google Analytics . La guía me parece que está terriblemente bien formulada, aunque a mi me dió problema alguna cosa. También si usais wordpress hay un plugin que dicen funciona medio bien.

El autor de la guía / su empresa 

 

Los pasos son sencillos:

  • Actualizas a la nueva versión (esa llamada en rojo arriba a la derecha)
  • Metes el nuevo código justo encima de etiqueta de cierre de </head> (fijaros en el añadido que no está en lo que te descargas de Google Analytics y que por defecto ya no se ve_trackEvent)

<script type=”text/javascript”>
var _gaq = _gaq || [];
_gaq.push([‘_setAccount’, ‘UA-xxxxxx-x’]);
_gaq.push([‘_trackPageview’]);
(function() {
var ga = document.createElement(‘script’); ga.type = ‘text/javascript'; ga.async = true;
ga.src = (‘https:’ == document.location.protocol ? ‘https://ssl’ : ‘http://www’) + ‘.google-analytics.com/ga.js';
var s = document.getElementsByTagName(‘script’)[0]; s.parentNode.insertBefore(ga, s);
})();
</script>
<!– Google Analytics Social Button Tracking –>
<script type=”text/javascript” src=”http://app.tabpress.com/js/ga_social_tracking.js”></script>

  • Google + te lo mide directamente que para eso es su juguete
  • En el código de Facebook añades tu app ID

<div id=”fb-root”><script src=”http://connect.facebook.net/en_US/all.js#appId=TUAPPID&xfbml=1″></script><script type=”text/javascript”>_ga.trackFacebook();</script><fb:like href=”La URL o si es un post de  Wordpress la llamada al permalink” send=”true” width=”450″ show_faces=”false” font=””></fb:like></div>

  • Para medir Twitter es igualmente sencillo. Añades un código junto al de analytics (antes de cierre de </head> y listo.

<!– Load Twitter JS-API asynchronously –>
<script>
(function(){
var twitterWidgets = document.createElement(‘script’);
twitterWidgets.type = ‘text/javascript';
twitterWidgets.async = true;
twitterWidgets.src = ‘http://platform.twitter.com/widgets.js';
// Setup a callback to track once the script loads.
twitterWidgets.onload = _ga.trackTwitter;
document.getElementsByTagName(‘head’)[0].appendChild(twitterWidgets);
})();
</script>

Google analytics, es una alternativa real a los sistemas de medición de pago. Omniture / Nedstat/Webtrends  pueden ofrecer muchas aplicaciones específicas pero que la mayor parte de las veces no terminan de implementarse. Los cambios que ha añadido a los dashboards Google parecen más orientados a ser una puerta de entrada a la gente de negocio y que se queden con la síntesis de información en dicha página, sin necesidad de tener que pastelear mucho más. Este último cambio de Google Analytics lo veo como un posicionamiento más fuerte contra estas empresas de pago, mezclas lo que te pueden dar esos dashboards con información Sociodemográfica y google gana el concurso de medidores ;)

 

Schema


Hace unas semanas Google hizo pública Schema, su propuesta para unos “microformatos  estandarizados”. Abarcan prácticamente todas las realidades de contenidos que podemos necesitar, con la capacidad de delimitar Como ejemplo, los tags de Noticias y de Eventos, Disponen de nomenclatura para en la valoración de un artículo, notificar cuantas veces se ha compartido en cada una de las redes sociales, delimitar lugares por Geo RSS / Región / Place y para un partido de fútbol, etiquetas para marcar que es fútbol, etiquetar los equipos, la duración y que como subevent son los cuartos de final.

Etiquetas para un post

  • name :Titulo del articulo
  • Description: Aquí metería el snipet que aparece en la home del site y que se toma para el meta description
  • RatingValue (yo lo pondría en lugar de AgregateRating)
  1. UserComments
  2. UserLikes
  3. UserPlusOnes
  4. UserTweets
  • Articlebody
  • Articlesection
  • Y podría poner Genre / o thing

Vamos que hay unas cuantas.

 

Google nos vuelve a decir cómo podemos etiquetar todo para que su sistema pueda interpretarlo de la forma más correcta a la hora de que aparezca en el servicio específico.

Vamos, que o terminamos metiendo eso o ponemos cara de impacto. Porque ya dependemos de ellos

  • Con Google Maps / Google Local (contenidos de sitios / eventos /y ya cualquier día clasificados
  • One Box para la búsqueda de eventos
  • Google Shopping (que empieza a aparecer por las serps )
  • Google News
  • Los modulitios de búsqueda local en el android
Muchos servicios, cada uno con su forma de meter los datos y el Schema permite maperarlo todo y con un único xml tomar los contenidos que interesen en cada sitio… al final esto es todo , tomar el control del contenido, primar lo actual y categorizar.
Desde el punto de vista del SEO será una cosa, pero para mí Schema es una oportunidad diferente.
Realmente implementar Schema ha de ser un dolor espantoso si tienes tu contenido en Base de Datos y si no es así, ha de ser prácticamente imposible, pero Schema presenta múltiples puntos de unión con otros entornos.
La etiqueta de autor y el footer del html5 deberían presentar el mismo contenido / description =  summary… Basicamente, un correcto etiquetado en plantilla puede reducir esfuerzos y un correcto mapeado dentro de las etiquetas nos permite además pasar una serie de variables al sistema de analítica  para clasificar la información de la forma adecuada, para lanzarlo a donde queramos CRM / Behavioural Targeting o lo que sea.
Un contenido:
  • Etiquetado por Geo RSS
  • Cada etiqueta, como elemento contabilizado / clasificado por cada uno de los campos
  • Cada campo, un segmento para CRM
  • Cada segmento, un entorno de publicidad
Ejemplo de Relaciones de schema
Las aplicaciones son tan amplias como nuestros objetivos de empresa. Otra cosa es que es un dolor de implementar.

Nuevos juguetes de Google


Por lo general cuando Google mueve ficha lo hace de una forma más sutil.

Receintemente Google se ha agenciado:

  • Google Hotel Finder (en fase de testing)
  • DealMap (plataforma de ofertas locales)
  • ITA (software de gestión de gestión de vuelos / buscador avanzado utilizado por Bing, tripadvisor…) Aunque le obligan a seguir permitiendo su uso a terceros.
A mi me parece sentar las bases y las potenciales estructuras para lanzar un entorno de Ocio local masivo, aunque no creo que Google lance nada que entre en conflicto demasiado descarado con las mayors de viajes, que son, a fin de cuentas, un porcentaje muy importante de los ingresos en Adwords a no ser que quiera puentear a todas con un acceso a los minoristas, tal y como hizo con Google Local y los buscadores verticales…
Qué os parece?

 

SEO con HTML5 – Bases


Últimamente he leído muchas cabalas de SEO y HTML5 y tras darme cuenta de que todos se copiaban entre sí y que cada uno se quedaba con algunas cosas me empollé un manual e intenté poner en orden las diferentes cosas que veía.

A día de hoy, HTML5 puro es una cuasiutopía, pocos los soportan y hay que poner tantos parches en el código para que se interpreten las cosas de una forma adecuada en todos que es poco operativo. Por otro lado hay tantas posibilidades como flecos y cosas por testar, con lo que todo lo que iré diciendo estos días se basa en gran medida en suposiciones / expectativas. Lo buieno, es que para gran parte de los aspectos se puede llamar a la API de google para que el navegador cargue los componentes necesarios para poder identificar correctamente los contenidos bajo html5 (con lo cual nos indica que Google ya sabe identificarlos y mapearlos)

Como punto general, el html5 orientado al SEO tiene más que ver con la jerarquía y organización semántica y relacional de los contenidos que con ningún caso de ensayo error. Gran parte de las cosas que se buscan tienen que ver con la accesibilidad, organización y jerarquía. Tiene todo el sentido que funcionen muy bien para el SEO en el futuro, pero todo parte de una “proyección”. Es decir, el juego de estilos, la jerarquía, las relaciones tienen peso en SEO cuando se hacen bien, en gran parte por la categorización / organización / jerarquía y dependencia de contenidos relacionados. El html5 da más juego.

Voy a Exponer el índice de los temas por los cuales considero que el html5 será bueno para el SEO e iré publicando sobre cada uno de los temas a medida que obtenga más información / disponga de tiempo (estos días estoy de mudanza)

Porqué debería ser bueno para el SEO:

  • Minimiza el ratio código / texto y en la propia definición de código añade multitud de valores semánticos. (como problema, el hecho de que haya que picar un montón de parches, esta ventaja será desvirtuada durante un tiempo)
  • Estandariza un montón de etiquetas centrando el valor de una forma más optimizada.
  • Dentro de los enlaces puedes añadir varios valores / atributos, de una forma jerarquizada. Prácticamente puedes meter en un enlace cualquier cosa salvo otro <a> y que esté identificada y destacada en su justa medida. (aquí no tengo ni idea de la proporción de pesos)
  • Tiene una analogía con multitud de microformatos para estandarizar los componentes de información.
  • Puedes jerarquizar los contenidos muy bien,  <section>Para agrupaciones e contenidos <article> para contenidos con autonomía y valor por si mismos<aside> para contenidos relacionados en fuentes externas <sumary> para resumenes de contenido y cada uno con su cabecera, estilos. Esto me encanta, reconozco que estamos dándonos de leches con unos colegas diseñadores para ver qué tendríamos que hacer con este punto, pero supongamos, únicamente bajo el punto de vista jerárquico y formal del html5: Un contenido está alojado en una sección (que tiene un h1 como identificación de la sección) dentro de la sección tienes unos artículos, en un orden de jerarquía (el primero, al ser el elemento principal autónomo de una lista TAMBIEN podría ser un h1) y si tienes una portada con diferentes secciónes, podrías tener bajo un estandar jerárquico, de forma legítima una docena de h1. (Es como si el h1 fuera el elemento principal de una lista jerarquizada con múltiples ramificaciones) tienes un <footer> dentro de un artículo para segmentar información externa al contenido propio del artículo, pero relacionada con él (quien lo hizo, compartelo…)

  • En este punto, una cosa importante, tienes un footer, un aside y un header independiente por cada unidad autónoma de contenido. No hablamos de 1 footer, 1 header y aside total en una página, puedes tener muchos…
  • Dispones de una etiqueta hgroup para agrupar contenidos jerarquizados y dar relevancia a uno. (de entrada diría que esto mola, pero tampoco sabría decir cuanto)

Iré publicando información a medida que asegure algunas cosas y rompa otras ;)

Francisco Lopez Carta abierta


Reconozco que llegué a su artículo, comenté y me piré.

No lo terminé de leer, algunas cosas que decía me cuadraban, otras no tanto, pero me comentaron una cosa, he entrado, lo he leído y quiero opinar. Copio y pego:

No me digais que no es curioso que por la palabra clave que define su sector/trabajo no haya nngun SEO posicionado en primera posicion y si este SEO/Birdlife la Sociedad Española de Ornitologia, es cierto que esta web recibe enlaces muchos enlaces .org por el tipode entidad que es, enlaces realmente valorados por el algoritmo de Google.

De todas formas el mejor SEO de España debería poder superar en posicionamiento a esta web y demostrar que el tiempo pone a cada uno en su sitio pro si haces SEO algo mas arriba,  mientras tanto el mejor SEO de España seguirán siendo los señores de la web de los amigos de los pajaros ….

Eso, Francisco López, consultor  de Marketing Online es una chorrada.

100% de acuerdo con que los SEO que dices son muy buenos, pero el término seo es un término NO rentable.

Me explico:

Una persona que busque sólamente “SEO” está buscando algo de información sin tener muy claro que es lo que necesita. Esa persona, consultará una página o dos y probablemente se vaya a buscar algo a un foro ya que no se enterará de nada.

SEO Es un término genérico (perdóname que te robe la expresión Pablo) de Newbie.

No se convierte en cliente porque la persona aun está demasiado pez para saber lo que quiere. (consultores o agencia fuera) Para esto mira quien se está anunciando, por adwords. Ves a alguien bueno ahí? Los que saben medir conversiones parece que se han dado cuenta de lo vacío.

Seria un término bueno para un blog que sólo quisiera dar información y tuviera la santa misión en la vida de compartir desinteresadamente, pero el esfuerzo que lleva no le daría nada. Conseguirías páginas vistas y un montó de comentarios demasiado genéricos para que el resto de usuarios encontrara valor en ellos. Tendrías que escribir todo para recién llegados. (cómo optimizar tu web en 10 pasos, 10 trucos para las imágenes….) un montón de contenidos orientados a gente recién llegada que cuando aprendieran, te dejarían de leer. Menuda conversión a largo plazo. Siempre usuarios nuevos, nunca recurrentes…

SEO para blogs Blog SEO convierten en subscriptores RSS, consultor seo en peticiones de información, libros seo, manuales seo en compra, aprender seo convierte a usuarios registrados para foros. Cada término, un público, un objetivo, un ROI diferente.

Es como si posicionas a muerte por el término “comprar” Término terriblemente competido que no sirve para nada. Una persona que haga esa búsqueda no se fiará de una pasarela de pagos online con lo que ese esfuerzo será inutil.

Disculpa el repaso, pero como apareces bien posicionado para Marketing Online, no entiendo que no hayas pensado en estas cosas.

Financial Times rozando lo opinable


Inicialmente reconozco que acusé a Financial Times de estar haciendo algo que podría ser considerado cloaking. Luego, Carlos Redondo, el seo manager de la agencia de seo sem relevan traffic me indicó algo que pone en opinable lo legal / ilegal del asunto.

El caso es que Financial Times no muestra el contenido de las noticias a los usuarios y si eres Google (navegas con Googlebot) si que puedes acceder a todas ellas. Esto podría ser cloaking.

Lo que me comentaba Carlos, es que únicamente sucede con tráfico directo  (y supongo que con referal) si entras desde Google, la primera noticia si que la ves como Google.

Y aquí entra lo opinable.

Es decir, aunque al principio me dejé llevar por un linchamiento contra Ft, ahora me parece lo suficientemente bien estructurado para que no pase nada, pero sigue sin parecerme del todo claro. Duque (otro consultor seo) apuntaba “grey hat“.

El tema es:

Financial Times utiliza todo su contenido para posicionar y a todos les muestra un contenido un 99,9999% diferente del que le ha mostrado a google, pero ese 0,000001 es el contenido, que en ese momento, ha buscado. Para ese usuario, en ese momento no ha sido cloack en esa página, pero en el resto de actividad que haga, si que lo hará.

Así que, qué os parece? yo no lo veo tan ilegal como para fusilarlo como a loogic por la aparente venta de enlaces (parece que le han bajado a un pr de 3 por olvidarse de los códigos de tracking en los banners), pero tampoco veo algo que se deba “establecer” como norma de hacer las cosas.

Qué opinais, Blanco, negro, gris?

agencias seo


Historia real.

Hace unos meses me pasan una consultoría de una agencia para que le eche un ojo. Un montón de ppt y word. Recomendaciones muy genéricas, aunque he de reconocer que nunca había visto una consultoría seo tan bien maquetada. Hacía muchísimo hincapié en convencer a redacción de que escribiera de una forma adecuada, los temas de los juegos de estilos tenían algo de sentido pero estaban moderadamente alejados de lo que se llamaría una jerarquía de estilos. Por supuesto proponían mod-rewrite, sitemaps y demás.

Muy funcional todo.

Pero no habían añadido ningún punto de categorización adecuada, tags, gestión de histórico, sitemaps de noticias, quitar los 3 enlaces repetidos por cada noticia, mejorar el linking interno de una forma escalable, corregir el filtrado de pr en algunas zonas, establecer estructuras estables… ni siquiera recomendaron que las cosas que se repiten cada año, sean estructuras estables. Había cogido una plantilla y habían rellenado campos… Por supuesto también tuvieron un descuido al poner analytics, estaba mal metido y no en todas las páginas.

Ha terminado la relación con la agencia, han enviado un informe precioso en el que hablan de un crecimiento brutal, independientemente de que les dijéramos que verian crecer los datos porque estábamos metiendo los códigos bien y que no pensaran que era por su curro.

Todo esto me lleva a pensar que las agencias tienen gente no preparada que se encarga de hacer los informes, ponen plantillas, no asimilan el contenido, no piensan cómo hacer crecer, cómo crear. Únicamente ponen parches de los que no funcionan a la larga. El seo de agencia es una plantilla en ppt, una serie de campos sobre los que hacer find and replace, un programita de medición de serps, un nombre conocido y mucho morro / capacidad de deccir al cliente que si no crece es por no aplicar todo, en lugar de darle vueltas cuando te indican que no se puede seguir un camino.

No digo el nombre porque no tiene sentido, he visto varias igual.

Si alguien quiere referencias de agencias / que alguien revise una consultoría / una segunda opinión / que me comente.

pr filtrado vs origen


Esto realmente va más en plan pregunta abierta.

Me parece que el pr es un empuje líquido, no estático. Me explico.

Una página recibe enlaces, montones de ellos, llega a un pr de 6 y esta página de PR6 da una fuerza determinada a las páginas de destino.

Una página tiene muchos más enlaces, PR 7, da una fuerza a una página interna de destino y le sube a un pr de 6, pero esa página, aun con el mismo PR, me parece que no cuenta ni remotamente parecido cara al punto anterior.

Es decir, es como y un rió y un pantano, la página a la que llegan los enlaces es el rió nutrido de varios”afluentes” , pero las balsas / pantanos (páginas internas que se posicionan por filtrado), aunque tengan la misma agua, tienen mucha menos vida. (por no decir que la tasa de acceso de Google es menor y que pilla los enlaces mucho más tarde)

Sé que el ejemplo es raro  y que todo el post parece salido de un día malo, pero estoy viendo algunas cosas que me llevan a pensar eso.

regalo seo


La gente de el país lo sabe bien, lo encontré rastreando algunas páginas suyas para ver los enlaces que les apuntaban…

El otro día lo dije en mi twitter, pero estamos en navidad y esto es para todos

Los acortadores de url pueden ser bien indexados.

Otra cosa, por supuesto es para qué, generar contenido duplicado que no posicionará nunca, pero todo depende de qué páginas queramos duplicar.

Supongamos:

  1. Cogemos nuestro sitemap
  2. Lo metemos en 10 acortadores de url
  3. twitteamos los 10
  4. Guardamos esos enlaces en los marcadores sociales
  5. Vinculamos nuestra cuenta de twitter a la cuenta de Mister Wong con lo que se puede importar automáticamente los enlaces que has enviado…
  6. Has conseguido enlaces entrantes :) Muchos

Luego si ya te dedicas a trabajar con api o montas el premium de bit.ly ya lo tienes automatizado :)

Feliz navidad, desaparezco unos días