Optimización y posicionamiento SEO en buscadores para servicios de información

Optimización y posicionamiento SEO en buscadores para servicios de información Módulo 2: Consideraciones estratégicas 1. Consideraciones previas 1.1....
1 downloads 0 Views 567KB Size
Optimización y posicionamiento SEO en buscadores para servicios de información Módulo 2: Consideraciones estratégicas

1. Consideraciones previas 1.1. Análisis SEO del sitio web (en rediseños) 1.2. Herramientas de análisis 1.3. Análisis cualitativo y cuantitativo de links

2. Metodología de optimización SEO 2.1. Search Analytics: análisis de las palabras clave (keywords) 2.2. Análisis estratégico del sitio web 2.2.1. Relación entre Arquitectura de Información y SEO 2.2.2. Estacionalidad de búsquedas 2.2.3. Internacionalización SEO 2.2.4. Accesibilidad y SEO

1

1. Consideraciones previas

1.1. Análisis SEO del sitio web (en rediseños)

En el caso de que estemos pensando en rediseñar un sitio web que ya esté funcionando, deberemos realizar algunas tareas de auditoría de optimización y posicionamiento, para conocer en qué punto estamos como situación de partida, y qué mejoras se imponen por orden de prioridad. Para ello desarrollaremos las siguientes tareas:

1. Saber qué queries / keywords nos interesa estudiar. Lo veremos más en detalle, pero es un error pensar que si tenemos una web dedicada a dar formación sobre bibliotecas, queramos posicionar la web para la búsqueda “formación”. ¿Por qué? Véase el capítulo 2.1.

2. Conocer nuestra posición y la de la competencia. Establecer un punto de partida en la posición en que aparecemos en los buscadores de nuestro interés (como por ejemplo Google) nos permitirá conocer nuestras limitaciones y oportunidades, y asignar objetivos deseables versus factibles. Este control de posiciones deberá ser periódico, ed forma que monitoricemos la evolución de nuestras acciones y sus efectos, tanto positivos como negativos.

3. Generamos un cuadro de control de:



Factores internos positivos



Factores externos positivos



Factores internos negativos



Factores externos negativos

Que detallaremos en el siguiente capítulo.

2

1.2. Herramientas de análisis

Hay muy distintas herramientas que nos van a permitir analizar nuestro sitio web desde distintos puntos de vista, tanto un análisis más manual o cualitativo como un análisis más automatizado, más circunscrito a la parte más técnica y cuantitativo. Dependiendo del tamaño y objetivos de nuestro sitio web optaremos por unas o por otras.

Aparecen constantemente nuevas herramientas, y nunca encontraremos una que satisfaga todas nuestras necesidades. Por eso, aquí sólo podemos destacar algunas herramientas, que nos permitirán evaluar la utilidad de otras que encontremos o que aparezcan en el futuro:

Análisis de keywords: https://adwords.google.com/select/KeywordToolExternal http://inventory.overture.com/searchinventory/suggestion

Comparaciones: http://www.marketleap.com/publinkpop/

Emulación de spider: http://www.seo-browser.com/

Plantillas de control: http://www.yourseoplan.com/download-worksheets.html

Varias herramientas más: http://www.webuildpages.com/tools/default.htm http://www.webuildpages.com/cool-seo-tool/

3

1.3. Análisis cualitativo y cuantitativo de links

Un apartado que merece especial atención es el análisis de enlaces. Antes de haber delimitado para qué palabra o palabras claves queremos aparecer y ser posicionados, será interesante conocer cuántos enlaces apuntan a nuestro sitio web y a los competidores que aparecen mejor posicionados para determinada palabra clave.

Para conocer el número de enlaces que apuntan a un determinado sitio web, podemos utilizar comandos similares en los distintos grandes buscadores:

Debe hacerse notar aquí que los resultados serán muy distintos. Los resultados que ofrece Google serán notoriamente menores que los que encontraremos en Yahoo, puesto que Google es utilizado con tanta intensidad que prefiere no dar tantas pistas. Por tanto, se recomienda Yahoo para analizar los enlaces entrantes a un sitio web. No sólo eso, sino que Yahoo ha dispuesto toda una herramienta con una API que permite análisis más exhaustivos.

De este análisis, podremos aprender valiosas lecciones, como cuántos enlaces tiene mi sitio web, cuántos tienen los competidores, cuáles son esos enlaces, y visitando las páginas que han enlazado a nuestros competidores y el contexto en el que aparece el enlace, también por qué han enlazado a esos competidores. Sólo saber cuántos enlaces tienen mis competidores en comparación con los que apuntan a mi sitio web, nos permitirá imaginar la magnitud de la tarea que nos espera.

4

Aunque no sea el único factor, como veremos más adelante, no será lo mismo competir con sitios que tienen unas decenas o centenas de enlaces apuntando hacia ellos, que otros a los que apuntan miles o decenas de miles de enlaces. Incluso nos hará desistir de intentar posicionar para esta o aquella expresión, en aras de objetivos más realistas.

Muy importante también es analizar cuáles de esos enlaces nos interesa conseguir, lo que podemos averiguar a través de herramientas como Touchgraph, que realiza un gráfico en el que podemos visualizar los nodos o sitios web más interrelacionados entre sí con respecto a un sitio web dado, por lo que podremos inferir que ésos serán los sitios con mayor autoridad (los Einstein relacionados con la palabra clave por la que quiero posicionar mi sitio web) y por tanto, aquellos enlaces que deberemos intentar conseguir en primer lugar.

Todo este análisis cualitativo es válido en el caso de sitios web pequeños-medianos, con pocas palabras clave como objetivo. En el caso de grandes portales o webs que quieran aparecer para cientos o miles de palabras clave, lógicamente no sería escalable un análisis tan exhaustivo.

Cada cual deberá en su caso, establecer el nivel y profundidad del análisis, pero sí que será interesante tener siempre al menos alguna medida cuantitativa en número de enlaces que nos permita hacernos una idea de la tarea por venir.

5

2. Metodología de optimización SEO Hay 5 fases básicas que hay que controlar en una estrategia de SEO:



Análisis de palabras clave (keywords) por las que queremos posicionarnos en primeras posiciones y benchmarking (comparativa con otros sitios web para descubrir best practices o mejores prácticas).



Análisis

estratégico

del

sitio

web:

arquitectura

de

información,

accesibilidad… –

Acciones de optimización del código y el texto dentro del sitio web



Acciones de optimización fuera de la web (popularidad, netweaving…)



Seguimiento de resultados y reajustes.

2.1. Search Analytics: análisis de palabras clave (keywords)

Al comenzar a establecer nuestra estrategia de optimización y posicionamiento, antes de empezar es condición sine qua non hacernos algunas preguntas:



¿Qué términos / palabras clave son los que queremos posicionar?



¿Cuál es nuestro negocio / servicio y qué buscan nuestros usuarios?



¿Qué palabras se buscan más en relación a los temas que abarca nuestro negocio / servicio?



¿Qué palabras son más útiles y para qué queremos estar posicionados con ella?



¿Cómo trata la competencia las mismas palabras clave que yo quiero posicionar y por qué están posicionados los primeros?



¿En qué nos diferenciamos de la competencia?



¿Quiero estar posicionado para pocos términos muy buscados, o para muchos términos muy poco buscados?

Antes de seguir, es necesario entender mejor cómo buscan los usuarios en los buscadores, porque de este entendimiento se derivarán todas las acciones posteriores, y la monitorización que hagamos en el futuro de nuestros éxitos o fracasos.

6

Cómo buscan los usuarios Las búsquedas en cualquier buscador, tanto uno de una intranet, de un buscador interno dentro de un portal, o de un buscador generalista en internet, siguen una distribución según la llamada ley de Zipf, que como antes comentábamos se deriva de fenómenos como las redes de escala libres y las leyes de potencias o power laws.

Según un corolario de la ley de Zipf, al analizar los serch logs de un buscador, el archivo en el que se contabilizan todas las veces que se busca una expresión de búsqueda (frecuencia de búsqueda) descubriremos un conjunto pequeño de búsquedas más comunes, y un gran grupo de multitud de búsquedas (palabras clave, queries) que tienen muy poca frecuencia, se buscan poco o muy poco.

FUENTE: Louis Rosenfeld

Como vemos en el gráfico, en la parte de la izquierda observamos un grupo pequeño de palabras (probablemente unas decenas) que se han buscado hasta 2500 veces más que las palabras situadas en el borde del gráfico en la parte de la derecha. Este dato nos induciría a pensar que es mejor aparecer por palabras más buscadas y olvidarnos de las menos buscadas. Pero…

Tradicionalmente se ha comprobado al analizar search logs que las expresiones más buscadas son las formadas por una sola palabra, búsquedas genéricas como “pisos”, “turismo”, “bibliotecas”, etc.

7

Diversos datos muestran que la longitud media de las queries o búsquedas ha ido aumentando en los últimos años. Así Yahoo, en mayo de 2006, mostraba una frecuencia media de 3.3 palabras por búsqueda, frente a las 2.5 palabras por búsqueda en 2004 y las 1.2 palabras que se contabilizaban en 1998. AOL confirma unas 2.8 palabras por consulta en la actualidad, y aunque Google no ofrece datos directos, las pistas nos la da la barra de Google, en la que podemos observar dos tendencias interesantes:



Por un lado, cuando empezamos a teclear una búsqueda (buscamos por “perro” y al empezar a teclear “perr”, la barra comienza a darnos debajo diversas alternativas para que no tengamos por qué seguir tecleando) la barra de Google nos ofrece búsquedas que ya hemos hecho (sacadas de nuestro historial de búsqueda) lo que indica que Google se ha dado cuenta de que solemos buscar lo mismo una y otra vez. No recordamos los sitios a los que hemos acudido, sino que recordamos lo que hemos buscado.



Por otro lado, debajo de esas búsquedas repetitivas, nos ofrece búsquedas que han hecho muchos otros usuarios (búsquedas frecuentes) que comienzan por la palabra que estamos escribiendo. Estas búsquedas suelen estar compuestas por dos o tres términos, y dada la capacidad que tiene Google para modificar nuestras costumbres de búsqueda, será cada vez más normal ver más y más búsquedas repetitivas con más términos, de forma que la gráfica sea más “plana”, haya menos divergencias, aunque la tendencia inicial básica de la ley de Zipf se mantenga.

Además, el conjunto sumado de búsquedas menos frecuentes probablemente será mayor que el subconjunto de búsquedas muy frecuentes, fenómeno conocido como Larga Cola o Long Tail, por lo que grandes sitios web dinámicos, compuestos de miles de páginas, que utilizan Gestores de Contenidos (Content Management Systems o CMS) sobre bases de datos, así como proyectos Web 2.0 tipo Loquo o Wikipedia, pueden optar por luchar por miles de palabras clave muy poco buscadas, en lugar o además de luchar por unas pocas palabras más buscadas.

Es decir, no tiene por qué ser la mejor estrategia elegir las palabras más buscadas (o no sólo) sino –dependiendo de nuestro presupuesto y grado de esfuerzo a emplearaquellas que:

8



Tienen un ratio equilibrado entre número / cualidad de los competidores versus volumen de búsquedas (se buscan bastante, pero no hay tantos competidores tan bien posicionados como para que el esfuerzo sea demasiado caro)



Tienen más probabilidades de ser rentables (“comprar piso” versus “trucos decoración pisos”)

Herramientas de ayuda en la selección: Depende del momento en que nos encontremos, podremos utilizar unas herramientas u otras, dibujando dos escenarios distintos:



Diseño desde cero, o prediseño



Rediseño del sitio web

En el caso de un prediseño o diseño desde cero: Herramienta de sugerencias de Google Adwords en https://adwords.google.es/select/main?cmd=KeywordSandbox Herramienta de sugerencias de Overture: http://inventory.overture.com/searchinventory/suggestion Wordtracker: http://www.wordtracker.com/

9

10

11

Plan

12

Pensiones

Plan Pensiones

13

Una vez localizada una Palabra clave o Keyword inequívocamente relevante para nuestra estrategia, hay que tener en cuenta:



singulares y plurales



acentos



todas las variaciones y extensiones de ese término.

Recordemos que, si estamos desarrollando una pequeña página web estática y no tenemos mucho presupuesto, seremos humildes y buscaremos 5-10 expresiones de búsqueda interesantes. Si tenemos presupuesto, un CMS sobre una base de datos, etc., podemos pensar en estrategias de gestión de contenidos que nos lleven a luchar por cientos o miles de expresiones, muchas de ellas combinaciones de diferentes palabras clave.

Por ejemplo, para un portal de venta y alquiler de pisos de ámbito nacional, se pueden concatenar diferentes palabras y obtener de forma automática o semiautomática miles de expresiones. Así:

comprar

piso

Barcelona

compras

pisos

Madrid

… … …

14

Concatenando estos términos obtendríamos:

Comprar Compras Piso Pisos Barcelona Madrid Comprar piso Comprar pisos Comprar Madrid Comprar Barcelona Compras piso Compras pisos Compras Madrid Compras Barcelona Piso Madrid Piso barcelona Comprar piso Madrid Comprar piso Barcelona Comprar pisos Madrid Comprar pisos Barcelona Compras piso Madrid Compras piso Barcelona Compras pisos Madrid Compras pisos Barcelona

Y ahora imaginemos esa lista para todos los pueblos de España, todos los sinónimos y palabras relacionadas con “pisos”, etc. etc.

Como podemos suponer, diferentes expresiones de búsqueda tendrán cada cual sus distintas frecuencias de búsqueda (unas se buscarán más, otras menos, configurando esa gráfica tipo ley de Zipf o Long Tail) pero en un portal donde hay “de todo”, el esfuerzo económico será menor, más escalable (con el mismo esfuerzo, podemos luchar por todas estas expresiones) y la rentabilidad final será mayor, puesto que, gracias al efecto de la Larga Cola, la suma de las pequeñas ganancias obtenidas en multitud de expresiones muy poco buscadas, será enorme.

15

En el caso de un rediseño: Podremos combinar la utilización de herramientas externas, como las que antes hemos comentado, y herramientas de análisis del portal, como Google Analytics (que dejaremos para el capítulo 5.9.4) o el buscador interno en el caso de que haya, que nos proporcionará información cuantitativa y cualitativa de mayor profundidad, a través del análisis del search log.

Un search log en crudo nos indica de:



La palabra clave o expresión de búsqueda



El momento de la búsqueda



La IP o dirección del ordenador desde el que se ha buscado

A partir de ahí podemos obtener un search log más elaborado, por ejemplo:

Período: Noviembre 2003 Palabra Clave: talleres teatro niños Nº búsquedas: 16 % del total de búsquedas del portal para ese período: 12,29% Nº palabras: 3 Resultados búsqueda: 0 Usuarios que han buscado: Pepe, Juan, ...

Del cual podremos extraer al menos una conclusión muy interesante: nuestro buscador da 0 resultados para el 12,29% de las búsquedas: ¡PROBLEMAS!

El cruce entre datos del buscador interno y los buscadores externos (como Google) nos informará por un lado de lo que los usuarios están buscando, encuentran o no, y cómo nuestro buscador les aporta respuestas, y por otro lado de palabras clave que probablemente no sabíamos que se buscaban y que son relevantes para nuestro sitio web, deberían aparecer en él.

El análisis de search log, dentro de las disciplinas llamadas user search behaviour e information seeking, se puede cruzar con otra potente herramienta, un sistema de Business intelligence.

16

Una herramienta de Business Intelligence genera un cubo de datos de un log de visitas, con 3 dimensiones o coordenadas, XYZ:



X: páginas vistas



Y: perfil de los usuarios (más completo si los usuarios aportan información personal)



Z: tiempo

Este tipo de herramientas permiten segmentar por X,Y o Z, por lo que podemos realizar estimaciones cuantitativas muy precisas e incluso generar simulaciones a futuro.

Y mezclado con search log podríamos preguntarle cosas como: “¿Qué

porcentaje de usuarios mayores de 30 años varones de Valencia buscaron “pañales” a las 12 de la noche de ayer y no encontraron contenido satisfactorio?”

17

2.2. Análisis estratégico del sitio web

2.2.1. Relación entre Arquitectura de Información y SEO

Si antes decíamos que el posicionamiento en buscadores debía ser visto siempre en relación con otras necesidades a la hora de diseñar un sitio web, el lector habrá supuesto tras consultar el último capitulo, que el estudio de lo que más buscan los usuarios relacionado con el tema de nuestro sitio web y las palabras clave más interesantes para posicionar, nos está dando pistas fehacientes de cómo debe ser el contenido de nuestro portal: su lenguaje natural, complejidad lingüística e incluso la cuantía y profundidad de subtemáticas que podemos abarcar.

Por tanto, veamos cómo el estudio de la conducta de búsqueda del usuario (User Search Behaviour) puede ayudarnos, no sólo con el posicionamiento en buscadores, sino también con la estructura del sitio web o arquitectura de información (AI) disciplinas ambas que deberían ir indisolublemente unidas.

Al estudiar las palabras clave de mayor interés para el posicionamiento averiguaremos cuándo se buscan, qué segmentos de población las buscan, cómo las buscan (variantes, plural/singular, misspellings o errores de escritura más comunes) y conceptos relacionados. Pero indirectamente, este estudio también nos dará pistas de cómo podríamos estructurar nuestro sitio web en categorías y subcategorías:



Categorías (+ buscado) > Subcategorías (- buscado)



Categorías (- palabras) > Subcategorías (+ palabras)

Hay dos aproximaciones básicas para construir categorías de contenidos dentro de un sitio web:



Top-down: de arriba a abajo. Se piensan primero las categorías principales, y se van desglosando subcategorías jerárquicas.



Bottom-up: de abajo arriba. Se listan todos los ladrillos básicos (términos, conceptos…) que puede contener el sitio web, y posteriormente se organizan, creando subcategorías, y sobre ellas, las categorías jerárquicas principales.

18

Siguiendo la técnica bottom-up, trabajaremos a partir de la identificación de palabras clave mediante search logs y Google Adwords, agrupando las palabras clave según su afinidad, dividiéndolas en grupos que compartan la misma temática.

Después se deberá decidir si se realizan subsecciones o incluso páginas específicas dedicadas a cada palabra clave a posicionar. Recordemos que para un buscador, un sitio web es el portal como tal (un dominio, misitioweb.com) y también cada una de las páginas que la componen (misitioweb.com/categoria1/palabra_clave1.htm) y ambos se tendrán en cuenta para el posicionamiento.

Normalmente, la página de inicio servirá para palabras más genéricas, mientras que las subsecciones y páginas individuales, se posicionarán para distintas expresiones o palabras clave específicas.

19

2.2.2. Estacionalidad de búsquedas

Un elemento importante a la hora de diseñar una estrategia de posicionamiento en buscadores es el tiempo. Dependiendo de la palabra clave a posicionar, una campaña puede tardar de seis meses a un año en surtir efectos visibles, por lo que deberemos planificar con tiempo cuándo comenzará.

Para averiguar si debemos posicionar todas las palabras clave con el mismo esfuerzo en el mismo momento, o si podemos realizar esfuerzos adicionales durante períodos fijos a lo largo del año, deberemos estudiar la estacionalidad de las búsquedas, los momentos o períodos del año en que más se busca esta palabra.

Un ejemplo sería la expresión o término de búsqueda “fallas”. Con la herramienta Google Trends, podremos averiguar en qué momentos del año se busca más.

Fallas (búsqueda mundial 2004 – 2006)

Como podemos ver justo antes de la fiesta de las fallas cada año, se busca más esta expresión. Si un portal de turismo de la Comunidad Valenciana quisiera posicionar sus contenidos para esta búsqueda, el momento en que más prominente deberá ser ese contenido será unos meses antes del momento de mayor frecuencia de búsquedas.

20

21

2.2.3. Internacionalización SEO

Un error clásico en internacionalización es traducir contenidos de un idioma a otro sin más análisis, directamente una traducción exacta.

La segmentación de usuarios provocará rápidamente que descubramos pautas en la forma en que usuarios de distintos países y culturas busca. En ocasiones, comprobaremos que hay diferencias entre las necesidades de información de estos usuarios, y que deberemos preparar nuestro contenido, su estructura y presentación de forma específica para cada segmento de población objetivo. Asimismo, hablaremos de palabras clave distintas o con distintas prioridades.

Un ejemplo, la Universidad Politécnica de Valencia, que ofrece con mayor prominencia contenidos diferenciados para usuarios de procedencias distintas:

Página de inicio de la UPV en español

22

Página de inicio de la UPV en inglés

23

2.2.4. Accesibilidad y SEO

A muchos dueños de sitios web no les interesa la accesibilidad, pues implica tener en cuenta una serie de directrices mundiales y dedicar esfuerzo y atención a un tipo de público del que no cree que vaya a obtener rentabilidad.

La realidad nos dice que diseñar páginas accesibles no es sólo éticamente responsable, sino rentable, por diversos motivos:



Google es el usuario ciego más famoso del mundo. Sólo lee texto



Cuanto más se siguen las directrices de accesibilidad web, más compatible es el portal con diferentes dispositivos y navegadores, lo que redunda en más posibilidades de que su contenido sea usado por más usuarios.



Diseñar para la accesibilidad implica mejorar las explicaciones en texto del portal, lo que implica más posibilidades de ser encontrados por los buscadores para más palabras clave.

Algunas herramientas interesantes que nos pueden ser útiles para introducirnos en el diseño accesible:



http://www.sidar.org/que/g1/util.php#taw



http://www.nils.org.au/ais/web/resources/toolbar/

Prohibida la reproducción total o parcial de estos contenidos © Jorge Serrano Cobos © SEDIC

24

Suggest Documents