Curso de Marketing Online

Asignatura 2. Bloque 1A: Posicionamiento orgánico en buscadores (SEO).

1 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Índice

Posicionamiento orgánico en buscadores (SEO)

1 Los buscadores de Internet y el posicionamiento natural ...... 5 1.1 Introducción ...... 5 1.2 Los buscadores en Internet ...... 7 1.3 Evolución histórica de los buscadores ...... 7 1.4 Cómo funcionan los motores de búsqueda ...... 9 1.5 El algoritmo de ...... 10 1.5.1 Google Caffeine ...... 11 1.5.2 Google Mayday ...... 11 1.5.3 Google Freshness ...... 12 1.5.4 Google Payday Loan...... 12 1.5.5 Google Author Rank ...... 13 1.5.6 ...... 13 1.5.7 ...... 14 1.5.8 Google EMD (Exact Match Domain) ...... 15 1.5.9 ...... 16 1.5.10 Google Pigeon ...... 17 1.5.11 Google Pirate 2.0 ...... 17 1.5.12 Mobilegeddon ...... 17 1.5.13 Resultados locales procedentes del directorio Google My Business ...... 18 1.5.14 Otras actualizaciones menores ...... 18 1.6 ¿Qué es el SEO? ...... 19 1.7 La importancia del SEO ...... 20 1.8 SEO vs SEM ...... 21

2 SEO On Page ...... 27 2.1 Investigación de palabras clave ...... 27 2.1.1 Estrategia de palabras clave ...... 27 2.1.2 Herramientas de palabras clave ...... 29 2.1.3 Factores que influyen en la elección de las palabras clave ...... 35 2.2 Los factores internos de optimización web ...... 36 2.2.1 Estructura del sitio web ...... 37

2 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

2.2.2 El Dominio y el alojamiento web ...... 37 2.2.3 Las meta etiquetas del código HTML ...... 40 2.2.4 Los fragmentos enriquecidos ...... 46 2.2.5 URLs amigables ...... 49 2.2.6 Los enlaces internos ...... 50 2.2.7 Los enlaces salientes ...... 50 2.2.8 Las URLs canónicas ...... 51 2.2.9 Mapa del sitio (sitemap)...... 52 2.2.10 El archivo robots.txt ...... 54 2.2.11 Web Performance Optimization (WPO) ...... 56 2.2.12 El contenido del sitio ...... 57 2.2.13 Las etiquetas de los encabezados ...... 58 2.2.14 Los estilos ...... 64 2.2.15 Las imágenes ...... 65 2.2.16 Integración con redes sociales ...... 68

3 SEO Off Page ...... 69 3.1 Linkbuilding ...... 69 3.1.1 Los directorios de enlaces ...... 72 3.1.2 Directorios de artículos y notas de prensa ...... 73 3.1.3 Foros ...... 73 3.1.4 Blogs ...... 74 3.1.5 Intercambio de enlaces ...... 74 3.1.6 Enlaces pagados ...... 75 3.2 Linkbaiting ...... 76 3.3 Social Media Opimization (SMO) ...... 76 3.4 Black Hat SEO ...... 77 3.4.1 Contenido oculto ...... 78 3.4.2 Keyword spamming o keyword stuffing ...... 78 3.4.3 Doorways (páginas traseras) ...... 78 3.4.4 Cloaking ...... 79 3.4.5 Contenido copiado, duplicado o remezclado ...... 79 3.4.6 Generación de enlaces artificiales...... 80

4 Penalizaciones SEO ...... 82

5 SEO en otros medios ...... 84 5.1 SEO para Google My Business ...... 84 5.2 SEO para móviles ...... 85 5.3 SEO para vídeos ...... 85

6 Planificación de una campaña SEO ...... 88

3 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

6.1 Selección de palabras clave ...... 88 6.2 Análisis de la situación actual ...... 89 6.3 Objetivos y KPIs ...... 90 6.4 Acciones a realizar ...... 91 6.5 Análisis y medición de resultados ...... 91 6.6 Caso concreto. Medición del ROI en SEO ...... 93

7 Comercialización del SEO ...... 96 7.1 Consultoría o auditoría de situación ...... 96 7.2 Optimización inicial del sitio ...... 97 7.3 Trabajo continuo sobre el sitio ...... 97

4 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

1 Los buscadores de Internet y el posicionamiento natural

1.1 Introducción Internet es el medio más importante para encontrar información sobre cualquier tema de interés y los motores de búsqueda una herramienta fundamental para localizarla. De hecho, a pesar de la crisis, el uso de Internet sigue una evolución positiva según datos del Estudio General de Medios (EGM).

Realizar búsquedas es la actividad más repetida por los internautas a diario (tanto desde casa como desde un móvil o desde el trabajo), hasta el punto de que muchos de los usuarios de Internet configuran el navegador para que su página de inicio sea un buscador. Y es que las páginas de resultados son el primer punto de contacto entre empresas y potenciales clientes, aunque según las estadísticas, pocos son los usuarios que acceden a la segunda página de resultados. Esto nos plantea un escenario complicado, puesto que muy pocos resultados de los miles o incluso millones que nos saldrán son los que verdaderamente van a tener visibilidad.

5 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Principales usos de internet según lugar de acceso. Fuente: Informe ‘Sociedad en red 2014’ (ed.2015)

Se producen millones de búsquedas de todo tipo a diario y si nuestra página se encuentra en las primeras posiciones tendremos muchas posibilidades de alcanzar a nuestro cliente potencial. Un buen posicionamiento nos aportará un volumen constante de visitas, generalmente de buena calidad y que, además, no supondrá un coste directo como el de pagar para salir en la sección de anuncios patrocinados.

El tráfico proveniente de un buscador, llamado tráfico orgánico o natural, suele un representar un alto porcentaje sobre el tráfico total y además se trata de un tráfico bastante cualificado, ya que la persona que usa el buscador tiene una actitud activa y se muestra receptiva ante la información que se le presenta.

La rápida evolución del medio ha provocado que la inversión en buscadores haya experimentado un gran aumento en los últimos años y muchas empresas hayan apostado

6 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

decididamente por llevar a cabo estrategias de marketing en buscadores, tanto de pago directo como de posicionamiento orgánico.

1.2 Los buscadores en Internet En los últimos años hemos experimentado un espectacular crecimiento en el uso de internet y de las nuevas tecnologías y dispositivos. Internet ha dejado de ser una herramienta y se ha convertido en un canal de comunicación masivo con unas posibilidades casi ilimitadas tanto para las empresas y negocios como para los usuarios, desafiando a los mercados tradicionales y transformando muchos de los procesos productivos.

Millones de usuarios buscan a diario información y cientos o miles de resultados son los que luchan por salir en las primeras posiciones del buscador. Pero, ¿qué es un buscador? Son aplicaciones web encargadas de localizar, indexar, organizar y presentar a los usuarios la información que está relacionada con su consulta de búsqueda, ordenada de mayor a menor relevancia. En el fondo los buscadores tratan de que los usuarios encuentren fácilmente lo que buscan, relegando a posiciones bajas o al olvido aquellos resultados poco relevantes.

Esta labor de indexación y organización es cada vez más importante, pues cada día se crean nuevos sitios web y el contenido en la red aumenta y cambia, por lo que los buscadores deben ser capaces de tener en cuenta el nuevo contenido que va surgiendo o modificándose.

Los buscadores recopilan la información de las páginas web en bases de datos llamadas índices. Este proceso se realiza mediante algoritmos y programas automatizados llamados robots (bots), arañas (spiders) o rastreadores (crawlers). Ellos son los encargados de rastrear continuamente las páginas en internet siguiendo los enlaces, en un proceso llamado “indexación”.

1.3 Evolución histórica de los buscadores En 1990 nació ARCHIE, considerado como el primer motor de búsqueda inventado para la red de redes y escrito por estudiantes de la McGill University de Montreal (Canadá). A partir de ahí se ha avanzado mucho.

En 1993 nació World Wide Web Wanderer, y pronto sería capaz de registrar URLs (direcciones de páginas).

A partir del 1994 nacieron algunos de los buscadores que hoy en día conocemos, aunque muchos de ellos fueron adquiridos o finalmente desaparecieron.

En ese mismo año, David Filo y Jerry Launch lanzaron el directorio web Yahoo!, cuyo objetivo era la recopilación manual de enlaces de sus webs favoritas. El crecimiento de la World Wide Web (WWW) hizo que Yahoo! se convirtiera en un completo directorio web donde un equipo humano clasificaba manualmente cada de una de las webs que recibía a través de

7 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

formularios de contacto. El crecimiento de la WWW hizo que este modelo de clasificación manual dejara de ser operativo. A pesar de todo, hoy en día, todavía funcionan algunas iniciativas de clasificación manual como el directorio DMOZ.

En 1997 surgió Google, de la mano de dos estudiantes de la Universidad de Stanford ( y ) y, poco después, comenzó a situarse entre los mejores buscadores gracias a la inversión privada.

No se trató del primer buscador basado en un motor de búsqueda. Sin embargo, si fue el que sacó mayor rendimiento a su tecnología. Una infraestructura montada eficientemente y que da un rendimiento excelente.

En ese momento, el factor humano de los directorios dio paso al factor máquina, donde el robot del buscador era encargado de localizar y catalogar todo el contenido web.

En la actualidad Google es el buscador más utilizado del mundo y es líder en la mayoría de países, alcanzando cuotas de búsqueda superiores al 90% en parte de Europa y Latinoamérica, y algo menos en Estados Unidos. Sin embargo, en otras zonas como China o Rusia el liderazgo lo ostentan otros buscadores como Baidu y Yandex, respectivamente.

En España, este liderazgo es muy significativo con una cuota de mercado de búsquedas en torno al 94%. Es por ello que las técnicas de posicionamiento en buscadores se centran en este buscador, aunque muchos de los factores que afectan al posicionamiento son también comunes a otros buscadores como Bing o Yahoo!, los siguientes en el mercado.

Otras fechas destacables en la historia evolutiva de los buscadores serían:

• 1994: lanzamiento de Lycos. Fue la primera empresa en medir su publicidad en CPM (coste por mil impresiones de anuncio). • 1994: lanzamiento de Infoseek. Fue el primer buscador en ofrecer resultados en tiempo real. • 1994: lanzamiento de Altavista. Primer buscador que utilizó búsquedas basadas en el lenguaje natural. • 1997: empieza su andadura Yandex, el buscador ruso más importante en la actualidad. • 1998: nace DMOZ como un directorio web en el que editores voluntarios relacionan enlaces con páginas web de forma ordenada y por categorías. • 1999: nace BAIDU, el buscador chino que cuenta con una cuota de mercado del 1,89% mundial y líder en China. • 2009: Microsoft lanza Bing, conocido anteriormente como Live Search, Windows Live Search y MSN Search.

8 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

1.4 Cómo funcionan los motores de búsqueda Como ya se ha comentado, los buscadores se basan en robots. Los robots o bots son programas informáticos que usan los motores de búsqueda para rastrear la web. El robot es propio de cada buscador y realiza peticiones a los servidores web.

El objetivo de este robot es recopilar diferente información sobre sitios y páginas web que va visitando, de ahí que sea muy importante que los robots puedan acceder e interpretar el contenido de nuestro sitio web correctamente. El de Google es conocido como .

Esta información recopilada se guarda en gigantes bases de datos llamadas índices. El índice esté formado por una gran cantidad de documentos y material multimedia.

Toda esta información es almacenada mediante un algoritmo de indexación y, a través de otro algoritmo, la información es ordenada por importancia en forma de resultados a consultas realizadas por el usuario. Aunque este algoritmo es secreto, y ahí reside la credibilidad del buscador, se cree que está formado por más de 200 factores, algunos de los cuáles sí han sido desvelados por personas como Matt Cutts, cabeza visible de departamento de Webpam en Google.

9 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

1.5 El algoritmo de Google El buscador que revolucionó la forma en que los rastreadores buscaban y priorizaban las páginas web fue Google con su algoritmo PageRank en 1999. Hasta entonces, el criterio principal en el que se basaban los primeros buscadores era el número de veces que aparecía la palabra clave de una búsqueda en el sitio web. A partir de este momento, Google se centró en encontrar entre todas las webs el contenido que fuera más relevante y notorio, inspirándose para ello en la manera en la que la comunidad científica puntuaba los artículos que se publicaban, en función de la repercusión que estos tenían en otras publicaciones científicas.

De esta manera, empezó a “puntuar” los sitios web en función de los enlaces que recibían de otros (los llamados enlaces entrantes o backlinks) y teniendo en cuenta también la puntuación (relevancia) de las páginas web de las que partían los enlaces.

El PageRank ha sido durante mucho tiempo un factor muy importante para el posicionamiento en el buscador Google e incluso hoy todavía se piensa que tiene valor (a pesar de haberse afirmado que no se harán más actualizaciones del PageRank visual que nosotros conocemos). En cualquier caso, para el buscador es otro de los más de 200 factores o señales únicas que se tienen en cuenta y que, además, son actualizadas constantemente.

10 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Con el paso del tiempo Google ha ido evolucionando continuamente su algoritmo con el objetivo de mejorar la experiencia de los usuarios y presentarles información realmente útil. Esto ha originado pequeños ajustes en el algoritmo que, por lo general, han pasado desapercibidos, pero en otros casos los cambios han sido mucho más “famosos” porque han afectado a un porcentaje mayor de búsquedas, lo que ha hecho que se les haya bautizado con diversos nombres.

A continuación, vamos a dar un repaso a las actualizaciones más significativas en el algoritmo de Google y de qué forma han afectado a los resultados de búsqueda.

1.5.1 Google Caffeine Google Caffeine se implementó por primera vez en 2009 y significó el primer cambio importante en el algoritmo de Google. Antes de éste, habían venido Vince Update, Deway Update, Holiday Update o Florida Update. Sin embargo, Caffeine supuso un cambio estructural en los servidores pasando del viejo índice a uno nuevo con mucho más contenido.

Con este algoritmo, Google buscaba reducir los tiempos de búsqueda y actualizar la información con nuevos servicios que incluían Facebook y Twitter. Según algunos test realizados en su día, el tiempo de respuesta se redujo a la mitad y mejoró el rendimiento del motor de búsqueda.

La idea es que nuestro contenido que antes tardaba días en ser indexado, pudiera ser indexado en horas y, además, se indexaran más tipos de contenido, como vídeos, imágenes, etc.

Actualmente es posible encontrar en las búsquedas contenido que ha sido publicado hace pocas horas o incluso minutos.

Otro de los cambios de este algoritmo es que empezó a valorar más la velocidad del sitio como factor de posicionamiento.

1.5.2 Google Mayday Se trata del nombre de una actualización que se lanzó en 2010 y que supuso importantes cambios en las páginas de resultados. El objetivo de este algoritmo fue que los sitios “pequeños”, pero de calidad, pudieran posicionarse mejor en búsquedas long tail (búsquedas usando frases largas poco utilizadas) y competir con sitios más grandes. De esa forma, grandes portales con muchas páginas, pero con escaso contenido o pocos enlaces entrantes se vieron afectados.

Desde ese momento, las páginas que se “aprovechaban” de la autoridad del sitio para posicionarse, pasaron a ser menos valoradas por Google. Por ejemplo, webs de clasificados o tiendas online con fichas de productos “pobres” en contenido.

Este algoritmo tiene las siguientes características:

11 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

• Es independiente de Google Caffeine • Supone un cambio en la forma en que Google empareja las búsquedas long tail con los sitios. • No es temporal.

1.5.3 Google Freshness Esta actualización data de noviembre de 2011, siendo el contenido de los sitios web la principal causa de los cambios.

Google nos “demostró” que la actualización del contenido de un sitio era un factor importante para considerarlo de manera relevante. Concretamente, Freshness estaba diseñado para ofrecer al usuario información reciente sobre un acontecimiento determinado.

La rapidez con la que se generaban los nuevos contenidos y su periodo tan corto de “validez” justificó que Google tuviera en cuenta este aspecto en su algoritmo.

Se habló de que afectó al 35% de las búsquedas, aunque sólo a búsquedas sobre noticias recientes y de gran importancia, acontecimientos que se repetían regularmente como ferias, exposiciones…y a búsquedas sobre determinados productos donde Google quería mostrar los contenidos más recientes.

Indudablemente, para ciertas búsquedas sigue teniendo sentido mostrar información con antigüedad. Este tipo de información no se vio afectada por esta actualización del algoritmo.

1.5.4 Google Payday Loan La primera versión de esta actualización del algoritmo se lanzó en febrero de 2001 y se centró en las búsquedas consideradas como SPAM (búsquedas basura). El objetivo fue aquellas búsquedas que mostraban muchos resultados basura o contenidos inapropiados, con el fin de ofrecer resultados más relevantes y mejorar la experiencia de usuario. Este tipo de búsquedas estaban relacionadas fundamentalmente con webs de contenido pornográfico, portales de préstamos o sitios que ofrecían otro tipo de productos de baja calidad.

En junio de 2014, Google lanzó Payday Loan 3.0, la tercera actualización de este algoritmo.

En la actualidad, debido a la preocupación de Google por evitar los resultados SPAM, debemos centrarnos en publicaciones originales y que aporten valor al usuario, tratando además de desvincularnos (no enlazarnos) de páginas con alto contenido de SPAM.

12 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

1.5.5 Google Author Rank Author Rank se introduce en el 2012 y es el cambio más relevante en el cálculo del algoritmo desde el nacimiento del buscador. Se trata de un nuevo factor de posicionamiento de Google que da valor a las páginas publicadas por personas que Google considera importantes. Está basado en la reputación individual de la persona que escribe el contenido.

A partir de este momento, Google valora nuestra reputación en función de nuestra actividad en la red social Google+. Algunos factores a tener en cuenta son:

• La frecuencia con la que publicamos contenido. • La calidad y originalidad de nuestro contenido. • Cuántas personas comparten el contenido. • La reputación de las personas que comparten el contenido. • Cantidad de comentarios que genera cada contenido.

El 28 de agosto de 2014 Google anuncia que el nombre de autor y el soporte a la autoría queda eliminado por completo.

1.5.6 Google Panda La actualización Google Panda fue lanzada a principios de 2011. El objetivo de este cambio era eliminar de las primeras posiciones del buscador los sitios con contenido de baja calidad, páginas web sobre-optimizadas con palabras clave, gran cantidad de contenido copiado o exceso de publicidad, que buscaban posicionarse en los primeros resultados para atraer visitantes sin realmente ofrecer ningún valor añadido al usuario.

En el momento de su lanzamiento, supuso una revolución porque afectó al 12% de las búsquedas, principalmente a webs con contenido interno y externo duplicado y webs que participaban en granjas de enlaces (portales con cientos o miles de enlaces sin ningún tipo de objetivo para el usuario, más allá de favorecer artificialmente el posicionamiento).

Google Panda valora positivamente el contenido original y actualizado, que ofrezca un valor añadido al usuario. Por lo tanto, penaliza (o al menos no beneficia) a las páginas que copian contenidos de terceros o que obstaculizan la navegación del usuario para generar un mayor número de páginas vistas.

13 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Desde entonces y hasta ahora, Google ha lanzado varias decenas de actualizaciones en relación con este objetivo.

Las actualizaciones de mayor impacto fueron la primera (24 de febrero de 2011), que se lanzó en EEUU y afectó al 11,8% de las consultas y la sexta (12 de agosto de 2011), lanzada a nivel mundial y que afectó al 9% de las búsquedas.

Concretamente, en julio de 2015 se produjo la última actualización, conocida como Panda 4.2.

1.5.7 Google Penguin El algoritmo de Google Penguin fue lanzado en abril de 2012 y se centró en eliminar el SPAM y los enlaces de baja calidad con el objetivo de mejorar la relevancia de los resultados.

Este algoritmo se centra en los factores off page (elementos externos a los sitios web), dando mayor valor a las buenas prácticas y a la búsqueda de la “excelencia”, penalizando a los portales que buscan el posicionamiento natural a través de técnicas fraudulentas como la compra de enlaces o el spam mediante comentarios y enlaces en foros y blogs.

Google Penguin da valor a las buenas prácticas y a la búsqueda de la “excelencia”, y trata de penalizar los portales que buscan un posicionamiento fácil mediante técnicas de sobreoptimización o la compra de enlaces. La sobreoptimización se puede ver como un conjunto de acciones orientadas a manipular un sitio web para que se posicione mejor, sin tener en cuenta al usuario. Es decir, cuando pasamos al abuso. Por ejemplo:

• Comprar enlaces o realizar Guest Blogging de forma poco natural. Guest Blogging consiste en publicar contenido en el blog de otro a cambio de un enlace hacia nuestra web. • Crear enlaces mediante métodos automáticos • Participar en granjas de enlaces • Publicar comentarios o recomendaciones con enlace en foros y blogs de forma masiva • Generar enlaces desde sitios web no relacionados o desde páginas en otros idiomas+ • Generar enlaces con texto de enlace optimizado de forma poco natural

Penaliza, sobre todo a:

• Las páginas cuyos enlaces repiten constantemente el mismo texto de enlace

14 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

• Las páginas que reciben enlaces de webs de baja calidad, como directorios, redes de enlaces o granjas de enlaces. • Las páginas que reciben enlaces de sitios con los que no se comparten intereses. • Las páginas que reciben enlaces de páginas en otros idiomas sin que haya una vinculación clara.

En cuanto a las actualizaciones, de Google Penguin se han varias. La primera, el 24 de abril de 2012, tuvo una incidencia del 3,1% en las búsquedas, seguida de Penguin 2.0 (22 de mayo de 2013) que alteró el 2,3% de las búsquedas. El resto de actualizaciones han tenido poca un nivel de incidencia mucho menor.

La última de todas ha sido Penguin 3.0, que salió el 17 de octubre de 2014, y focalizó sus esfuerzos en las redes de blogs creadas exclusivamente para aumentar la cantidad de enlaces que tienen como destino a un sitio web y la sobreoptimización de los textos de los enlaces (crear muchos enlaces con el mismo texto de palabra clave).

¿Penguin 4.0 para 2016?

Se especula desde finales de 2015 con que una gran actualización de este algoritmo está a punto de salir, quizá en el primer semestre de 2016.

1.5.8 Google EMD (Exact Match Domain) Google EMD fue una actualización del algoritmo lanzada en septiembre de 2012. El objetivo era reducir la aparición de resultados de poca calidad frente a las búsquedas con coincidencia exacta del dominio.

Hasta ese momento, disponer de un dominio que coincidiera exactamente con un palabra clave muy utilizada, posibilitaba tener una posición privilegiada sin hacer mucho más desde los primeros días. Ejemplos de dominios EMD serían:

• Abogadosmadrid.com. • Vuelosbaratos.es. • Cerrajerosbarcelona.com.

La actualización de Google penaliza:

• Aquellos sitios web que siendo de baja calidad aprovechan la coincidencia de su dominio con la palabra clave para conseguir una buena posición.

Eso no significa que no se pueda tener un dominio de este tipo. De hecho, es una técnica SEO muy recomendable en ciertos casos. Solo los sitios web que se aprovechan

15 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

“descaradamente” de este hecho para mejorar el posicionamiento son los que han sido y serán penalizados.

1.5.9 Google Hummingbird Traducido al español como Colibrí, se lanzó en agosto de 2013. No se trató de una actualización propiamente dicha, sino que podríamos hablar de un nuevo algoritmo que conservó partes del anterior.

Se habló de un nivel de incidencia del 90% de las búsquedas, aunque en la práctica no pareció que se hubieran visto afectados los rankings.

Sin duda, se trató de un paso significativo para el buscador y que posiblemente dará que hablar, ya que supone el primer paso para acercarse a la búsqueda conversacional, dando respuesta a las búsquedas naturales, en forma de pregunta, como si se tratara de conversaciones reales.

Sus características principales son:

• Se centra en el significado global de las palabras. De esta forma, se ofrecen resultados por encima de las coincidencias léxicas, buscando el significado real. • Permite dar respuesta a preguntas complejas. De esta forma se puede trabajar con palabras clave long tail (búsquedas más largas y naturales). • Potencia las búsquedas por voz, proporcionando respuestas en tiempo real. • Mejora el llamado Knowledge Graph (gráfico de conocimiento), con el que se pueden realizar comparaciones de productos.

Desde el punto de vista SEO no se conocen demasiados datos, aunque no se han producido grandes variaciones en lo que a las posiciones se refiere. En general, las implicaciones de este algoritmo son las siguientes:

• Hay que centrarse más en el contenido de la página y en un conjunto de palabras clave relacionadas entre sí, en vez de solo en unas pocas palabras clave principales. • Aumenta la importancia del móvil y de los medios sociales. Y es que el móvil permite realizar búsquedas mediante la voz, con lo que la tendencia en la forma de realizar las búsquedas está cambiando.

16 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

1.5.10 Google Pigeon Este cambio en el algoritmo de Google fue lanzado el 24 de julio de 2014 y tuvo un gran efecto sobre los resultados de las búsquedas locales (aquellas referenciadas a una ubicación física) como, por ejemplo, “restaurantes en Madrid”.

Con este cambio, el objetivo de Google ha sido mejorar la experiencia de los usuarios que realizan búsquedas consideradas “locales”, ofreciendo resultados cercanos a la localización sobde se encuentran o sobre la que buscan. De esta forma, directorios locales como Google My Business, Páginas Amarillas, o Tripadvisor han mejorado su visibilidad.

La última actualización de este algoritmo data del 22 de diciembre de 2014.

1.5.11 Google Pirate 2.0 Segunda versión de su algoritmo para combatir la piratería de software y medios digitales. Se lanzó el 21 de octubre de 2014. Afectó a pocas páginas, pero de manera muy importante.

1.5.12 Mobilegeddon

Así han bautizado algunos la actualización que tuvo lugar en abril de 2015, anunciada a bombo y platillo por Google, y que debía afectar a los sitios web no preparados para móvil, penalizándolos en los resultados de búsqueda desde móviles. En los primeros meses, sin embargo, la actualización no ha tenido demasiada incidencia. Afecta a los resultados de búsqueda para móviles en todos los idiomas y se aplica a páginas concretas, no a sitios enteros.

Desde el 2 de noviembre de 2015, Google ha comenzado a aplicar una penalización por el uso de intersticiales, que son capas, generalmente usadas para realizar acciones publicitarias, que tapan toda o casi toda la página. Por ejemplo, las páginas que ocultan gran parte del contenido con un intersticial de instalación de aplicaciones al aterrizar desde los resultados del buscador, han dejado de considerarse optimizadas para móviles. En su lugar, se propone el uso de banners, pues estos no impiden que el usuario vea el contenido.

Recientemente, Google ha mencionado la posibilidad de realizar acciones manuales para mejorar su algoritmo de detección de intersticiales, pues algunos sitios han desarrollado métodos para esquivar la penalización.

Para mayo de 2016 se espera una nueva actualización del algoritmo para móviles, para que los usuarios puedan encontrar más fácilmente las páginas relevantes y optimizadas para estos dispositivos.

17 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

1.5.13 Resultados locales procedentes del directorio Google My Business

Situados generalmente por encima del resto de los resultados orgánicos, los resultados locales, procedentes del directorio Google My Business, muestran negocios de una localidad o ubicación donde se encuentra el usuario o sobre la que busca.

En agosto de 2015 se actualizó la forma en que se mostraban estos resultados, reduciéndose además la cantidad visible de inicio de 7 a 3, si bien se cuenta con un enlace para ver más resultados, que nos lleva directamente a . Además, desaparecen los enlaces a las páginas de Google+. De esta forma, algunos sitios bien posicionados dentro de este directorio, pierden visibilidad, en beneficio de los 3 que ahora se muestren.

1.5.14 Otras actualizaciones menores

Diciembre 2015. Google da importancia a las páginas HTTPS (las que tienen un certificado de seguridad, el famoso “candado”). Se considera un factor más, por la seguridad que otorga a las páginas. Esto no quiere decir que todos los sitios deban usar un certificado SSL, pero sí puede ser recomendable en páginas donde se recogen datos del usuario. En el mercado existen soluciones

18 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

desde 6€, pero para implementar uno de estos certificados, se requieren ciertos conocimientos a nivel de servidor, por lo que no puede realizarlo cualquiera.

Febrero 2016. Diversas actualizaciones para resultados en móviles. Una de ellas muestra un indicador de un rayo en páginas que usan AMP (programadas para una carga acelerada). También, desde el 22 de febrero, desaparecen los anuncios de texto patrocinados en el lateral, y se incluye un cuarto anuncio patrocinado de texto en la zona superior izquierda, desplazando aún más hacia abajo a los resultados orgánicos. Este cambio, si bien se refiere a la publicidad de Google, puede tener influencia en la forma en que los usuarios interaccionan con los resultados naturales. No obstante, de momento AMP no es considerado un factor que afecte al posicionamiento.

Si queréis estar informados de todos los cambios que va realizando Google en su algoritmo y conocer el historial de sus actualizaciones lo podéis hacer desde aquí:

http://moz.com/google-algorithm-change

1.6 ¿Qué es el SEO? SEO es el acrónimo de Search Engine Optimization, también conocido como posicionamiento en buscadores, posicionamiento natural o simplemente posicionamiento web. Se trata de una disciplina perteneciente al marketing online que cuyo objetivo es mejorar la visibilidad de un sitio web para que aparezca bien posicionado en los resultados orgánicos de un conjunto más o menos amplio de búsquedas y este posicionamiento se mantenga o mejore con el tiempo.

SEO también puede referirse a la persona encargada de desempeñar este trabajo dentro de una organización o por cuenta propia para un cliente o para sí mismo.

El objetivo principal del SEO es aumentar la visibilidad, lo que se traduce en un aumento del número de visitas (y de la calidad de las mismas) procedentes de los resultados no patrocinados de los buscadores, manteniéndose en el tiempo

El posicionamiento SEO se trabaja desde dos puntos de vista, que podríamos llamar estrategias: SEO On-page y SEO Off-page. El primero trabaja los aspectos internos del sitio web, mientras que el segundo trabaja la popularidad del sitio a partir de terceros.

19 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Es importante considerar que cuando se trabaja el SEO, los resultados rara vez se van a obtener en un corto espacio de tiempo. Es un trabajo normalmente lento, pero constante, que debe planificarse con vistas a medio y largo plazo, desarrollándolo en varias fases. De cualquier forma, nadie puede garantizar que un sitio web aparecerá en una posición concreta en un periodo de tiempo determinado. Son decenas e incluso cientos de factores los que influyen, y solo los buscadores conocen la “fórmula” que aplican para mostrar sus resultados. El trabajo de SEO podemos verlo como el trabajo en un laboratorio, que exige disciplina, investigación, y un método de prueba y error.

1.7 La importancia del SEO El uso de los buscadores es la actividad más repetida por los usuarios en Internet. Sin embargo, pocos son los usuarios que pasan a la segunda página de resultados (¿1% o 2%?). Teniendo en cuenta esto, el margen de posiciones de privilegio para conseguir visibilidad es pequeño. Aparecer en una posición más allá de la 20 (último de la segunda página en ordenador) es como tener nuestro negocio en un callejón por el que nadie pasa.

En este sentido, os podemos mostrar diversos estudios realizados por agencias americanas que nos dan datos del CTR (tasa de clic) que obtienen los resultados orgánicos en función de la posición que ocupan.

20 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Como se puede observar, los 5 primeros clasificados en una búsqueda pueden llegar a recibir el 70% de las visitas. También es muy interesante ver la evolución respecto a 2006. Esto nos ayuda a confirmar lo importante que es aparecer en los primeros puestos si queremos conseguir visitas.

1.8 SEO vs SEM La mayoría de los buscadores actuales presentan dos tipos de resultados en zonas diferenciadas. Una zona que corresponde a los resultados procedentes de la base de datos orgánica y por la que no es necesario pagar para aparecer, y una zona de enlaces o anuncios patrocinados, en la cual los propietarios de esos sitios deben pagar para salir.

Los tres grandes buscadores (Google, Bing y Yahoo!) tienen una presentación parecida. Los resultados orgánicos se encuentran en la zona izquierda de la página y los enlaces patrocinados aparecen en la parte superior, inferior y, en algunos casos, en el lateral (Google por ejemplo ha excluido la mayoría de sus anuncios de la zona lateral). Los anuncios son marcados en otro color o mostrados bajo el aviso de “Anuncio”, “Ads” o “Patrocinado” para que los usuarios puedan también diferenciarlos.

21 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Imagen de resultados SEO y SEM en Google antes del 22 de febrero de 2016

22 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Imagen de resultados SEO y SEM en Google después del 22 de febrero de 2016

23 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Imagen de resultados SEO y SEM en Bing

24 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Imagen de resultados SEO y SEM en Yandex

25 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Cuando hablamos de posicionamiento orgánico y posicionamiento natural, nos estamos refiriendo exclusivamente al posicionamiento en los resultados procedentes de la base de datos orgánica, es decir, para el que no es necesario pagar un coste directo por visita.

Por su parte, las siglas SEM significan Search Engine Marketing o Marketing en Buscadores. Hay cierto debate sobre si el SEM abarca también al SEO e incluso algunos van más allá y consideran que SEM abarca otras estrategias de pago por clic y en medios sociales. No vamos a incidir en tal debate, pero es cierto que en ocasiones cuando hablamos de SEM, lo usamos en un sentido muy amplio. En este primer tema hablamos exclusivamente de SEO, pero en el siguiente nos adentraremos en el SEM, acotándolo exclusivamente al posicionamiento de pago en buscadores.

26 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

2 SEO On Page

El SEO On-page, también llamado On-site comprende todas aquellas acciones que se realizan directamente dentro del sitio web para optimizarlo. Se podría decir que esta rama del SEO es la de optimización pura y trata un conjunto de factores muy amplios. Debido a que algunos de estos factores cubren aspectos técnicos del sitio, es uno de los grandes caballos de batalla para los perfiles SEO no técnicos (cuando hablamos de perfiles técnicos nos referimos a programadores, diseñadores, webmasters, …). Por ello, para sacarle el máximo partido al SEO On-page, es recomendable disponer de ciertos conocimientos técnicos o contar con el apoyo en la organización de una persona que sí los tenga.

No obstante, algunas de las plataformas web que hemos visto en el curso facilitan parte de esta labor.

Dado que los factores SEO On-page se trabajan en nuestra propia web, son aquellos sobre los que tenemos bastante grado de control y dicha optimización depende sobre todo de nosotros. El éxito en nuestra estrategia de posicionamiento en buscadores dependerá en gran parte de cómo trabajemos estos aspectos, ya que permitirá a los buscadores encontrar, rastrear e indexar nuestra web, entendiendo el contenido de la misma y teniéndolo en cuenta a la hora de mostrar los resultados en el buscador.

En este capítulo vamos a presentar una metodología de trabajo y vamos a analizar los principales factores On-page, así como las técnicas más destacadas para conseguir el éxito en nuestro proyecto de posicionamiento.

2.1 Investigación de palabras clave La primera fase de cualquier campaña SEO consiste en realizar un estudio y análisis de las búsquedas para las que nos interesa posicionarnos. Estas búsquedas, que pueden ser palabras individuales, pero generalmente conjuntos de palabras e incluso frases, son lo que denominamos palabras clave o, en inglés, keywords.

Esta fase es muy importante dentro del proyecto de posicionamiento orgánico, ya que una mala elección de las palabras clave puede arruinar o al menos retrasar considerablemente los resultados. Este proceso de investigación lo veréis muchas veces como Keyword Research.

2.1.1 Estrategia de palabras clave Las palabras clave se pueden agrupar en cuatro grandes grupos, en función de su volumen de búsquedas y su significado:

• Head tail: genéricas

27 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

• Long tail: específicas • Mid tail: intermedias • De marca, llamadas también “branded”

Head tail

Las palabras clave head tail están formadas generalmente por 1 o 2 términos (en ocasiones hasta 3), tienen un volumen de búsquedas muy alto (como referencia, desde decenas de miles de búsquedas mensuales en adelante) y una competencia alta, debido a que suelen ser búsquedas con significados muy amplios y que pueden referirse a intenciones muy diversas.

Por ejemplo: coches, marketing, vuelos, hoteles, software, alquiler coches.

Posicionarse para una de estas palabras es realmente muy difícil, la probabilidad de éxito muy reducida, pero la cantidad de tráfico que nos pueden generar es inmensa.

Long tail

Son más bien frases de búsqueda muy específicas, con un volumen de búsquedas mensuales bajo (desde 10 a unos pocos cientos) y una intención muy clara. Suele haber mucha menos competencia y es esfuerzo de posicionamiento es menor, pero claro, la recompensa en forma de visitas también es inferior. No obstante, en algunos casos pueden ser palabras clave con un grado de conversión elevado.

Por ejemplo: hoteles con encanto en granada, canon powershot s120, vuelos baratos granada Londres, opiniones hotel las palmeras fuengirola.

Mid tail

Aquí consideraríamos las que no entran en ninguno de los grupos anteriores. Palabras clave con cierto volumen (más que unos pocos cientos al mes) y con intenciones diversas, pero no tan genéricas como en el caso de las head tail.

Por ejemplo: cámaras canon, apartamentos turísticos granada, tiendas de perfumes, relojes lotus.

De marca

Las palabras de marca son aquellas en las que está incluido total o parcialmente el nombre de nuestra empresa o de la marca. Vamos, que cuando el usuario las escribe, es porque quiere encontrarnos y no conoce la dirección exacta.

28 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Definir adecuadamente la estrategia de palabras clave es muy importante y lo ideal es combinar términos long tail con términos mid tail, trabajando por supuesto los términos de marca (que deberían ser los naturalmente más fáciles de posicionar). Podríamos simplificar diciendo que cada página de nuestro sitio web puede optimizarse para una palabra clave diferente. No obstante, esta es la forma antigua de abordar el posicionamiento SEO, la que se lleva haciendo años y que poco a poco va perdiendo efectividad. La actual se basa, más que en la optimización de palabras clave individuales para cada página, en el uso de un conjunto de palabras clave y conceptos relacionados entre sí para cada página o grupo de páginas.

En el SEO es común escuchar hablar de la teoría del Long Tail. Esta teoría muy popular se basa en que la mitad de las visitas que proceden de los buscadores se realizan con búsquedas generales que se repiten con frecuencia, mientras que la otra mitad de las visitas provienen de búsquedas que se usan pocas veces o incluso búsquedas únicas.

La teoría del Long Tail se centra en este conjunto de visitas de usuarios que usan combinaciones de palabras clave únicas o muy poco usadas. Según dicha teoría, estas búsquedas minoritarias, representadas por frases largas y específicas, pueden llegar a representar un gran porcentaje del volumen del portal y ser muy rentables, ya que la competencia comparada con las búsquedas más genéricas es mucho menor.

2.1.2 Herramientas de palabras clave Para ayudarnos a determinar qué palabras clave o conjuntos de palabras clave son adecuados para nuestro sitio, lo ideal es establecer un listado de términos que, a priori, consideramos relevantes para el contenido que vamos a presentar a nuestros usuarios, y agruparlo en temáticas. Posteriormente podremos ir ampliando, descartando o modificando nuestra

29 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

estrategia, sabiendo eso sí, que todo cambio de estrategia supondrá un retraso en la consecución de resultados. Por ello, no debemos descuidar esta primera fase.

Para ayudarnos con este proceso los buscadores disponen de herramientas propias que nos suministran datos de búsquedas y su evolución. La más conocida es la herramienta de palabras clave de Google, llamada Planificador de Palabras Clave (Google Keyword Planner), que nos da datos concretos de búsquedas e ideas sobre palabras clave. Las opciones de búsqueda que nos permite son:

• Introducir una o más palabras clave. Ésta es la mejor opción si ya disponemos de un listado preliminar. Nos dará además sugerencias adicionales. • Introducir una página web. Google analizará el sitio y nos propondrá palabras clave basadas en el contenido del portal web y sugerencias de palabras relacionadas con las primeras. • Introducir una categoría de producto o servicio. Google nos dará ideas de palabras clave relacionadas únicamente con dicha categoría.

Además, nos suministra datos de competencia publicitaria (SEM) y de costes por clic estimados (SEM) en el caso de que pujemos por esas palabras para salir en la sección patrocinada.

En cualquier caso, lo que nos proporciona es una estimación del número de búsquedas realizadas en relación a cada palabra clave y sus coincidencias en un periodo determinado.

30 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Para usar esta herramienta es necesario crear una cuenta de AdWords, si bien no es obligatorio invertir nada en ella, ni siquiera suministrar los datos de facturación. Tenéis todo sobre esta herramienta aquí: https://support.google.com/adwords/answer/2999770

Aunque lo comentaremos en el tema de SEM, en el caso de que vayáis a dar de alta una cuenta de Google AdWords el sistema os mostrará un proceso de 4 pasos. En el primer paso, debéis pulsar sobre el enlace “Omitir instrucciones de configuración” para que el sistema no os obligue a crear una campaña y a introducir datos de pago. Si os olvidáis de pulsar este enlace no hay vuelta atrás y tendréis que crear una nueva cuenta con otro email.

También podéis obviar este proceso usando este enlace directo que a nosotros nos ha funcionado.

https://adwords.google.com/um/Welcome/Home?sf=bb&escape=expert#ac

Para saber si habéis llegado a la pantalla correcta durante el proceso de alta, os debería aparecer una en la que se os da la bienvenida a AdWords y se solicitan los datos de País, horario y moneda para la cuenta.

31 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Por otro lado, Bing Ads, la plataforma publicitaria de Bing y Yahoo!, también dispone de su propia herramienta gratuita llamada “Investigar palabras clave”. Mucho menos desarrollada, pero nos dará estimaciones de búsquedas en Bing + Yahoo!. Solo es necesario crearse una cuenta en Bing Ads, sin necesidad de invertir tampoco en anuncios.

32 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Otras herramientas gratuitas que nos pueden ayudar son:

: nos ayuda a identificar tendencias de búsqueda en Google y nos muestra el interés a lo largo del tiempo de un término de búsqueda. También podemos filtrar la búsqueda por país, región, por períodos de tiempo o por categorías. Google Trends es muy útil para realizar comparaciones de popularidad y tendencia de varios términos y ver si van ganando o perdiendo fuerza a lo largo del tiempo, pero no nos da volúmenes de búsquedas absolutos con el Planificador.

33 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

• Google Autocompletar: al escribir en el campo de búsqueda nos sugiere consultas similares y que han sido utilizadas por otros usuarios o bien relacionadas con lo que estamos escribiendo.

• Funcionalidad de búsquedas relacionadas de Google: al hacer una búsqueda, veremos al final de la página una sección donde se muestran búsquedas relacionadas con la que hemos realizado.

34 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Otras técnicas que podemos emplear para identificar palabras claves son:

• Estadísticas web propias: a través de la Herramienta para Webmasters de Google, cuando hayamos registrado y verificado nuestro portal podremos consultar datos acerca de las búsquedas en las que ha aparecido nuestro sitio. • Competencia: conviene dedicar tiempo a revisar las páginas web de la competencia para detectar o encontrar nuevas oportunidades de palabras clave. • Usar un diccionario de sinónimos: se trata de encontrar sinónimos relacionados con los términos a posicionar.

También podemos hacer uso de herramientas comerciales para la investigación de palabras clave. A diferencia del planificador de palabras clave, no son gratuitas, si bien es verdad que ofrecen más funcionalidades como: análisis palabras clave competencia, determinación % dificultad para posicionar una palabra clave, etc. Las más conocidas (no todas gratuitas) son:

• Wordtracker • Keyword Discovery • Semrush • Sistrix • Keywordshitter • Rank Tracker

En la documentación de apoyo os hemos dejado también algunas referencias adicionales a herramientas gratuitas y comerciales relacionadas con la investigación de palabras clave. No obstante, los datos más fiables a nivel de número de búsquedas son los de los propios buscadores. Las herramientas comerciales se suelen usar sobre todo cuando queremos espiar las palabras clave que usa la competencia o hacer un análisis más profundo.

2.1.3 Factores que influyen en la elección de las palabras clave Una vez que tenemos un conjunto de palabras clave que nos interesan, la decisión final de las elegidas debe tomarse en función de los siguientes criterios:

• Popularidad: cuantas más búsquedas se realicen, más atractiva resultará la palabra clave. • Competencia: cuanta menos competencia tenga la palabra clave, más fácil será obtener una posición destacada con ella y menos tiempo y recursos invertiremos en ello. Es importante tener en cuenta que los datos de competencia que ofrecen las herramientas de los buscadores se basan en los anuncios publicitarios. No obstante,

35 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

una palabra muy competida en anuncios de pago en la mayoría de casos suele ser también igual de competida en posicionamiento orgánico. • Conversión: de poco sirve elegir palabras que nos aporten visitas si luego no se convierten en clientes. Si nuestro objetivo es la venta o conseguir leads, lo óptimo es elegir palabras que denoten intención de compra o adquisición de un servicio. Por ejemplo, palabras clave que incluyen términos como “precio”, “oferta”, “comprar”, “venta”, “coste”, “opiniones” nos indican que el usuario quiere comprar o se está planteando al menos adquirir algo. Por otro lado, las palabras más generales y que nos llevan más tráfico son más adecuadas para nuestra página de inicio y las páginas principales del sitio, con contenidos menos específicos. Por ejemplo, en una tienda online de perfumes, “perfumería online” podría trabajarse para la página home, “perfumes loewe” podría trabajarse para la página de categoría de la marca Loewe y “agua de loewe mar de coral” sería apropiada para la página de detalle del producto concreto o que muestre varios productos del mismo grupo (por ejemplo, variantes en diferentes tamaños o presentaciones). • Relación con el negocio: debemos asegurarnos de que las palabras clave que vayamos a trabajar están respaldadas por contenido específico en nuestro sitio.

En definitiva, debemos intentar conseguir un equilibrio entre popularidad, competencia y conversión de las palabras que elijamos. Nuestro consejo es que, si vuestro portal es pequeño o nuevo, empecéis con términos de marca, long tail y alguno mid tail. A medida que vuestra popularidad vaya subiendo, podréis ir reforzando algunos de estos términos y pensar en palabras clave más populares, pero debéis tener en cuenta que los términos más competidos suelen ser trabajados por grandes portales que realizan fuertes inversiones en equipo humano, técnico y de redacción de contenidos.

2.2 Los factores internos de optimización web Para realizar una optimización SEO On-page de vuestro portal, la elección del conjunto de palabras clave es muy importante. Sin embargo, el SEO actual va mucho más allá de las palabras clave y se centra cada vez más en el contenido, la experiencia de usuario y la popularidad. Tener un buen SEO On-page es requisito imprescindible pero no suficiente para tener opciones reales de posicionamiento con términos populares. De hecho, sitios web muy populares, a pesar de no tener un buen SEO On-page, suelen posicionarse bien, pero estarán bajo la lupa. La popularidad se basa sobre todo en los enlaces, y si una parte de estos no se ha conseguido por medios legítimos, pueden llegar las penalizaciones en cualquier momento. Por lo tanto, nuestro consejo es abordar primero una optimización On-page decente, para a continuación empezar a ejecutar una estrategia Off-page.

36 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

A continuación, vamos a comentar los factores internos más importantes, para que os resulte más sencillo planificar la creación de una nueva web o la optimización de la misma, ya sea para ejecutar vosotros los cambios o para que lo realicen otras personas.

2.2.1 Estructura del sitio web Desde el punto de vista del SEO, cada vez es más importante la experiencia del usuario que navega por nuestra web. Es uno de los conjuntos de factores que tienen en cuenta los buscadores para la indexación y el posicionamiento, teniendo cada vez más peso dentro del total de variables que tienen en cuenta.

Como abordamos en el tema de usabilidad, se trata de diseñar una buena arquitectura del sitio con el objetivo de que éste pueda ser utilizado por cualquier usuario de la forma más intuitiva y natural posible y, además, ser indexado de forma correcta por los buscadores. Estos conceptos se plasman de forma concreta en la primera tarea a acometer en la creación de un nuevo sitio web. Hay que tener en cuenta que un sitio bien organizado va a facilitar a los usuarios encontrar lo que necesitan y que visualicen una mayor cantidad de contenido. Indudablemente, la estructura de sitio que decidamos implantar también tendrá repercusiones sobre la facilidad con que los buscadores serán capaces de rastrear el contenido y calcular la importancia relativa de cada uno de ellos respecto al resto.

La clave es diseñar un sitio web que sea fácilmente indexable por los buscadores, pero con una estructura y contenido pensados para personas. Cuando hablamos de sitio web indexable, nos referimos a:

• Que sea encontrado por los robots • Que todo el contenido público pueda ser rastreado por los robots, y no solo la página home o de inicio. • Que los textos y enlaces sean también rastreables. Por ejemplo, un texto dentro de una imagen no puede ser leído por los robots. Y es algo con lo que nos encontramos bastante a menudo. • Que quede clara la temática de cada página. Ayudará a una mejor clasificación por parte de los buscadores.

2.2.2 El Dominio y el alojamiento web Un dominio es un grupo de caracteres alfanuméricos que se traducen a una dirección IP. La dirección IP de un dominio se corresponde con el servidor web donde tenemos alojada nuestra web. Para traducir el nombre del dominio a la IP del servidor se utilizan los servidores de nombre de domino (DNS).

37 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Una de las decisiones más importantes con que nos encontramos a la hora de comenzar con un proyecto web es el nombre del dominio. Es muy importante seleccionar un dominio adecuado ya que cambiarlo a posteriori es algo bastante costoso y nada recomendado, teniendo implicaciones en el posicionamiento.

El dominio debe ser coherente con nuestros objetivos. Para ello hay que tomar una serie de decisiones; la primera es qué queremos ofrecer y la segunda a quién queremos dirigirnos, es decir, cuál es nuestro público objetivo.

Si nuestro público está en España, podemos buscar nombres creativos en castellano, que coincidan con algo propio de la cultura española. Si nuestro objetivo es dirigirnos a un mercado internacional, debemos asegurarnos de que el nombre del dominio no coincide con alguna expresión coloquial en otro idioma que pueda perjudicar nuestro producto o servicio.

Otro de los criterios que tenemos que abordar es el de si queremos que el nombre del dominio incluya el nombre de nuestra marca o no. En el momento en el que registramos una marca, tenemos derecho legal al dominio que la contiene (si no ha sido registrado previamente), por lo que se puede dar el caso contrario, que elijamos un nombre que contenga otra marca comercial que no sea nuestra. Así que debemos comprobarlo antes de elegirlo.

Una práctica muy extendida en SEO es utilizar un dominio que contenga las palabras clave más importantes para nuestro público. Esto antes facilitaba conseguir un buen posicionamiento de una forma fácil y casi sin preocuparnos del contenido. No obstante, desde que Google sacó la actualización EMD, se ha perdido esta relevancia si se trata de sitios de baja calidad o contenido pobre. Pero si nuestro contenido va a ser “bueno”, sigue siendo una buena idea.

Una vez que tenemos claro cuáles son las palabras que van a formar nuestro dominio, tenemos que elegir cuál va a ser su extensión.

Oficialmente Google nunca se ha manifestado sobre si la extensión del dominio influye en el posicionamiento. Por lo tanto, debemos suponer que todos parten en igualdad de condiciones, si bien no recomendamos elegir dominios de un país para posicionarse en otro país diferente (por ejemplo, no escoger un dominio .es para posicionarse en Reino Unido, donde el dominio del país es .co.uk).

Una vez elegido el nombre del dominio, habría que decidir el país a cuyos usuarios nos deseamos dirigir preferentemente. La “geolocalización” del sitio web es importante ya que los buscadores tienden a dar más peso a los sitios web orientados al mismo país donde se hacen las búsquedas. También es posible geolocalizar un sitio web con un dominio genérico a varios países, si se ha estructurado por ejemplo en forma de un directorio para cada idioma.

38 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

La manera en que los buscadores identifican la ubicación de un sitio web es a través de varias señales:

• La extensión de dominio • La localización que especificamos para el dominio/directorio en la herramienta Console, herramienta que sirve para controlar diversos aspectos del SEO en Google. • La localización de los dominios que enlazan con el sitio web • La dirección IP del servidor donde se encuentra alojada la página

El alojamiento web, también llamado hosting, es el servicio que provee a los usuarios de un espacio en un servidor web donde guardar físicamente los archivos de nuestra web, la base de datos, las cuentas de correo, etc. y que está vinculado con el dominio para que al escribir la dirección URL del mismo, se muestre la información.

A la hora de elegir un servicio de alojamiento para nuestra web es fundamental asegurarnos de que la empresa que nos lo suministre nos va a dar un servicio de calidad. La localización del servidor, su carga de trabajo, el nivel de servicio y el tiempo de respuesta pueden influir notablemente en el tiempo de carga de una página web y en su disponibilidad, factores importantes y cada vez más tenidos en cuenta en el posicionamiento SEO.

Un servicio de alojamiento de calidad nos garantiza que nuestra web estará prácticamente siempre operativa y que tendrá tiempos de respuesta adecuados ante las peticiones de los usuarios. Por ello, si se desea dar un uso profesional a la web, no recomendamos usar servidores gratuitos, pues suelen tener “caídas” frecuentes, tiempos de respuesta más altos y unas garantías de servicio bajas.

Finalizamos este apartado con un resumen general de recomendaciones.

Sobre el dominio:

• Que sea fácilmente memorizable y esté relacionado con la empresa, la actividad o el contenido que se quiera ofrecer. • Que sea preferiblemente corto. Cuanto más largo sea, más probabilidades existen de que se produzca un error tecleándolo. • Aunque en la actualidad podemos registrar y usar dominios que incluyan caracteres especiales como la ‘ñ’, no lo recomendamos en absoluto. Casi siempre surgen problemas relativos a la codificación del carácter “ñ” lo cual en el fondo supone que los buscadores no lo van a reconocer correctamente. Además, hay que pensar que no todos los usuarios disponen de este carácter en sus teclados. Por ello, nuestro consejo es sustituir la “ñ” por una “n”.

39 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

• Elegir una extensión adecuada para nuestro dominio, en función del tipo de negocio y del ámbito geográfico que se le quiera dar. • Incluir la palabra clave principal en el dominio. No es algo obligatorio, pero ayuda a aumentar la relevancia del sitio (es un factor más a tener en cuenta). • Mantener el dominio tanto tiempo como sea posible. La antigüedad del mismo es un factor de posicionamiento, ya que cuanto más antiguo es, mayor confianza ofrece para los buscadores. • Renovar el dominio por un periodo mayor de 1 año. La fecha de caducidad del mismo también influye en el posicionamiento. Lo habitual es que las renovaciones sean por 1 año. No obstante, si vuestro proyecto es a largo plazo y dado el bajo coste del mismo, es recomendable renovarlo por un periodo superior (3 o 5 años).

Sobre el alojamiento web:

• Elegir un servicio de alojamiento web acorde al uso que se le vaya a dar a la web y al nivel de servicio deseado. Una web con alta carga de trabajo y grandes necesidades de tráfico (cientos de miles de visitas mensuales) probablemente requiera de un servidor dedicado. Para un sitio web corporativo de uso profesional será suficiente con un servidor compartido. Elegir un servidor gratuito solo si vuestra página es muy pequeña, no os importa que no esté operativa de vez en cuando o simplemente es para hacer pruebas. El coste de un alojamiento de pago “decente” es realmente bajo (50€- 100€ al año). Comparar proveedores y características del servicio y del servidor que os ofrecen. • El servidor web donde tengáis alojada la página conviene que esté en el país donde va a tener su ámbito principal.

2.2.3 Las meta etiquetas del código HTML Las meta etiquetas o metatags son elementos que forman parte del código HTML de cada página web. Su objetivo es aportar información a los robots de búsqueda y a los navegadores sobre cada página del sitio web. Se definen dentro de la cabecera del código HTML (trozo de código delimitado por ) y no son visibles directamente para los usuarios que visitan las páginas, salvo que exploren el código fuente.

Vamos a ver cuáles son las meta etiquetas más importantes y como utilizarlas correctamente.

Etiqueta title

Sintaxis:

40 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Título de la página

Su objetivo es definir el título de la página para los buscadores y es un factor importante para el SEO.

El contenido de esta etiqueta aparece en la ventana del navegador y también en el resultado de la búsqueda (lo que se llama snippet, que vemos en la siguiente imagen).

Consideraciones:

• No debe superar los 60 caracteres (incluyendo espacios en blanco). De hecho, es recomendable que esté entre 35 y 60. Esto es así porque el espacio para el título es limitado y en caso de ocupar más, directamente se corta y no se podrá leer bien, y los buscadores pueden no tenerlo en cuenta. Aquí incluimos caracteres como espacios en blanco, comas, puntos y guiones. • Cada página del sitio debe tener su propio title, acorde al contenido de la misma. No se deben usar los mismos title en varias páginas. Es uno de los errores más frecuentes cuando duplicamos páginas o tenemos el sitio web en varios idiomas. • Debe ser descriptivo y explícito. La palabra clave principal que queramos trabajar en la página debería aparecer en el title y mejor si es al principio, para que sea lo más parecido a la búsqueda que hace el usuario.

Es posible que en algún sitio web veáis esto:

41 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página

Es una meta etiqueta que está obsoleta y que NO es considerada por los buscadores. El título de la página para los buscadores siempre debe definirse mediante la etiqueta HTML . </p><p>Meta etiqueta description </p><p>Sintaxis: </p><p><meta name=”description” content=”Descripción de la página” /> </p><p>Esta meta etiqueta proporciona un breve resumen sobre el contenido de la página a los buscadores y a las personas antes de pulsar sobre el resultado de la búsqueda. Los buscadores utilizan generalmente (no siempre) esta información a la hora de presentar el resultado en la página de resultados. Es un campo que debemos aprovechar para explicar qué ofrecemos al usuario y darle motivos para hacer clic en nuestro resultado. </p><p>Consideraciones: </p><p>• Longitud máxima recomendada de 140 caracteres (incluyendo espacios en blanco) • Longitud mínima recomendada de 70 caracteres • Debe ser diferente para cada página del sitio. No duplicar descripciones. • Las palabras clave más importantes a posicionar deben incluirse también aquí, si bien tienen menos importancia en este campo que en el title. • En caso de no incluir una descripción, los buscadores mostrarán en el resultado de la búsqueda otro texto que encuentren en la página. </p><p>Meta etiqueta keywords </p><p>Sintaxis: </p><p><meta name=”keywords” content=”Palabra Clave 1, Palabra Clave 2, Palabra Clave 3…” /> </p><p>Esta meta etiqueta está obsoleta. Antiguamente se usaba para informar a los buscadores de las palabras clave relevantes con el contenido de la página web. Se abusó de ella en el pasado y por ello ha perdido su valor. Además, indicar aquí las palabras claves también dará una buena pista a la competencia sobre los términos para los que nos queremos posicionar. </p><p>42 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Meta etiqueta robots </p><p>Sintaxis: </p><p><meta name=”robots” content=”Valor1, Valor2” /> </p><p>Se utiliza para informar a los buscadores de si deben o no indexar y rastrear/seguir la página según los enlaces (son dos acciones bien diferenciadas). Es, por lo tanto, una meta etiqueta que se puede usar o no en cada página. Generalmente solo se usa en casos muy concretos, ya el control general de lo que se indexa se especifica a través de un archivo llamado robots.txt, que veremos después. </p><p>Indexar implica que la página aparecerá en los buscadores. </p><p>Rastrear/seguir los enlaces implica que el robot de búsqueda actúa como si pulsara en los enlaces para llegar a otras páginas que estén vinculadas con ésta. </p><p>Es importante usarla correctamente, porque un mal uso puede provocar problemas graves de indexación de nuestro sitio web. </p><p>El primer parámetro puede tomar los valores “index” o “noindex”. </p><p>• Index se utiliza cuando queremos que el robot indexe el contenido de la página. Es el valor por defecto cuando una página no tiene meta robots. • Noindex se usa si no queremos indexar una página. Por ejemplo, cuando sabemos que solo va a estar unos días activa o que no tiene valor para nosotros el hecho de que se posicione en el buscador, como una página de aviso legal. </p><p>El segundo parámetro puede tener los valores “follow” o “nofollow”: </p><p>• Follow se utiliza cuando queremos que nuestros enlaces transmitan una parte de la popularidad de la página a la página enlazada. Es el valor por defecto si no especificamos el meta robots. • Nofollow se usa cuando no queremos transmitir esta popularidad. Estamos hablando de que este parámetro se aplicaría para la página entera, en lugar de tener que marcar los enlaces uno a uno. ¿En qué caso interesa que los enlaces sean nofollow? o Enlaces que hayan sido pagados. Las directrices de Google indican que deben marcarse de esta forma. o Enlaces sin garantía (comentarios en foros, debates, etc.) o Enlaces a webs de poca calidad, pero que de las que nos valemos para nuestros artículos y páginas. Por ejemplo, como referencia de malas prácticas. </p><p>Por lo que tenemos cuatro combinaciones posibles: </p><p>43 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>• index, follow – Autoriza la indexación y rastreo de la página. </p><p><meta name=”robots” content=”index, follow” /> </p><p>• noindex, follow – Impide la indexación, pero permite transmitir popularidad en los enlaces que se encuentre. </p><p><meta name=”robots” content=”noindex, follow” /> </p><p>• index, nofollow – Autoriza la indexación, pero impide que los enlaces transmitan popularidad. </p><p><meta name=”robots” content=”index, nofollow” /> </p><p>• noindex, nofollow – Impide la indexación y la transmisión de popularidad. </p><p><meta name=”robots” content=”noindex, nofollow” /> </p><p>Si no se define esta meta etiqueta, el valor por defecto es “index, follow”. </p><p>Otros valores que podemos encontrar en esta meta etiqueta son: </p><p>• all – Equivalente a “index, follow” </p><p><meta name=”robots” content=”all” /> </p><p>• none - Equivalente a “noindex, nofollow” </p><p><meta name=”robots” content=”none” /> </p><p>44 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Meta etiqueta revisit-after </p><p>Sintaxis: </p><p><meta name=”revisit-after” content=”Periodo de actualización” /> </p><p>Sirve para indicar a los robots de búsqueda la frecuencia con la que se actualiza la página. Google y otros buscadores importantes no la tienen en cuenta ya que prefieren desde hace un tiempo que la gestión de la frecuencia de rastreo se gestione desde sus Herramientas para Webmasters. En caso de especificar un valor, hay que hacerlo en inglés. Por ejemplo, 1 month, 2 weeks, 3 days </p><p>Meta etiquetas Open Graph y Twitter cards </p><p>Sirven para indicar datos que son usados por los medios sociales (Facebook y Twitter, respectivamente) cuando compartimos enlaces en los medios sociales. Estos medios sociales leen la información cuando ponemos un enlace, de manera que aparecerá en la publicación del medio social el título, la imagen, etc. que hayamos definido en estos metas. </p><p>Open Graph: Para Facebook </p><p>Twitter cards: Para Twitter </p><p>45 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>2.2.4 Los fragmentos enriquecidos Los Rich Snippets o Fragmentos Enriquecidos nacieron en el año 2009 tras un acuerdo entre Google, Yahoo! y Bing. Su objetivo es que los buscadores entiendan mejor cuál es el contenido de nuestra página desde un punto de vista semántico y así poder ampliar la información que aparece en los resultados de búsqueda, para que el usuario tenga más datos sobre el contenido que tiene una web antes de visitarla. </p><p>Como hemos visto, el snippet (fragmento de nuestro sitio web que aparece como resultado de búsqueda) tradicional está compuesto por el título, la URL y la descripción. Sin embargo, gracias a los Rich Snippets podemos añadir elementos adicionales que nos resulten útiles a la hora de captar la atención del usuario, haciendo el resultado más visible y atractivo, lo que en definitiva supone CTR más altos. </p><p>Para poder disponer de Rich Snippets en nuestra web es necesario dar a los buscadores información extra para que comprendan el contenido de nuestra página. </p><p>Por lo tanto, son etiquetas específicas para marcar de forma estructurada algunos contenidos y que los buscadores los entiendan mejor. De esta forma, los buscadores serán capaces de identificar datos como: </p><p>• Valoraciones de páginas o de productos • Recetas • Eventos • Precio de productos • Direcciones • Películas • Restaurantes • Y muchos otros </p><p>¿Cómo se hace esto? Añadiendo código HTML específico en el sitio. El proceso se llama “marcado de datos estructurados”. Estas etiquetas pueden definirse de varias maneras; es decir, existen varias normas o tecnologías que definen la forma de hacerlo, pudiendo usar cualquiera de ellas. </p><p>• Microdatos • RDFa • JSON-LD </p><p>Por ejemplo, para el marcado mediante microdatos, Google, Bing y Yahoo! han creado lo el conjunto de marcas denominado “Schema.org”. </p><p>46 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Los principales Rich Snippets son: </p><p>• Opiniones: muestra al usuario una valoración del producto o servicio que ha sido consultado. Está especialmente indicado para comercio electrónico. </p><p>• Recetas: orientado a recetas de cocina, nos permite añadir la foto del plato, sus ingredientes, tiempo de preparación, etc. </p><p>• Organizaciones: aumentan la información acerca de una empresa, añadiendo el teléfono, dirección, etc. </p><p>• Eventos: permite incluir información sobre eventos, como la fecha, lugar, horarios. </p><p>• Vídeo: nos permite insertar una miniatura de un video similar a la que aparece cuando Google nos muestra un resultado de YouTube. </p><p>47 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>• Música: nos permite mostrar enlaces para acceder diariamente a la reproducción de un tema musical. </p><p>• Noticias: muestran el titular de la noticia, una foto, su fecha de publicación, etc. </p><p>• Sociales: nos muestran las veces que se ha compartido o recomendado nuestra página en redes sociales. </p><p>• Autor (obsoleta): muestra información de la persona que es autora del contenido. Se empleaba sobre todo en los blogs y añadía la foto, nombre, empleo, etc. Desde agosto de 2014, Google decidió eliminarlas por el abuso que se hizo de ellas. </p><p>Existen herramientas online como http://webcodetools.com/microdata-generators/ que nos pueden ayudar a generar las etiquetas necesarias para determinados rich Snippets. Google también cuenta con una herramienta para añadir datos estructurados: https://support.google.com/webmasters/topic/4599161?hl=es&ref_topic=4589289 </p><p>Por otro lado, también existen plugins o módulos en algunas plataformas web para ayudarnos con ello. </p><p>48 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>2.2.5 URLs amigables Un URL es un localizador de un recurso en Internet, en forma de una dirección como http://www.misitio.com/pagina.html siendo misitio.com el dominio, www el subdominio, y /pagina.html la dirección relativa del directorio o página donde se encuentra el contenido. Por lo tanto, si un sitio web tiene tres páginas, tendrá tres URL diferentes. </p><p>Algunos sitios web construyen los URLs de forma poco descriptiva, usando parámetros y o estructuras poco comprensibles. </p><p>Por ejemplo, este URL para el usuario no significa nada. Es imposible de recordar y además por sí solo cuando lo vea en el resultado de una búsqueda, no le dirá gran cosa. Y si no es bueno para el usuario, tampoco es bueno para el buscador. </p><p> www.misitioweb.com/pagina.php?cat=85&id=74368SD&Session=0 </p><p>Debemos implementar URLs que sean comprensibles, descriptivos del contenido y que además incluyan las principales palabras clave de cada página. Es lo que llamamos URL amigables. </p><p>Por ejemplo, este otro URL es perfectamente descriptivo. Podemos ver que se refiere a un artículo de un blog, dentro de la categoría “desarrollo web”, que compara Woocommerce y Prestashop: </p><p> http://www.idento.es/blog/desarrollo-web/woocommerce-vs-prestashop/ </p><p>En los URL no recomendamos usar ni tildes ni ñ, y se deben separar las palabras mediante guiones medios “-“. Podemos usar al final o no la extensión de página (.php, .html, etc), aunque es más claro si el URL termina sin la extensión. </p><p>La mayoría de las plataformas CMS y tiendas actuales dan la posibilidad de implementar o trabajar con URL amigables. En Wordpress y Prestashop viene por defecto, si bien es posible desactivarlas (algo que no tiene sentido hacer). En <a href="/tags/Blogger_(service)/" rel="tag">Blogger</a> también se generan por defecto en base al título de la página. En Joomla, para versiones antiguas necesitaremos instalar un plugin o configurar esta opción desde el panel de control. </p><p>En sitios web antiguos o programados a medida, los URL amigables se implementan usando el archivo .htaccess del servidor, estableciendo reglas de equivalencia entre el URL real y el URL amigable que vamos a mostrar al buscador y al usuario. Pero cuidado, tocar este fichero sin conocimiento puede dejar la página sin funcionar. </p><p>Ejemplo: </p><p>49 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>RewriteRule camaras/canon-powershot-sx420 index.php?id_articulo=2455 </p><p>Establecería una regla dentro de nuestro servidor que convertiría el URL: </p><p> http://www.misitioweb.com/index.php?id_articulo=2455 (no amigable) </p><p>En el URL: </p><p> http://www.misitioweb.com/camaras/canon-powershot-sx420 (amigable) </p><p>En resumen, para que los URL estén optimizados para SEO: </p><p>• Deben ser amigables. • Deben contener las palabras clave </p><p>2.2.6 Los enlaces internos Los enlaces internos son aquellos que conectan diferentes páginas dentro un mismo sitio web. Son utilizados por los usuarios y por los robots de los buscadores para navegar por nuestro portal. Un buen enlazado interno ayuda a mejorar la usabilidad de nuestro sitio web y favorece la comprensión del mismo por parte de los buscadores. </p><p>A nivel SEO, es importante que el texto visible del enlace (llamado “anchor text”) sea relevante con la página de destino y que contenga la palabra clave. En los enlaces también es recomendable incluir un título (atributo opcional) con información adicional sobre la página de destino. </p><p><a href="Aquí va la URL" title=”aquí la descripción del enlace”>Pulsa aquí para ir a algún sitio</a> </p><p>En este ejemplo el anchor text o texto ancla es “Pulsa aquí para ir a algún sitio”. </p><p>2.2.7 Los enlaces salientes Los enlaces salientes son los que colocamos en nuestro sitio y que se dirigen hacia otras páginas externas. </p><p>Al igual que ocurre con la mayoría de los factores On-page, los buscadores valoran positivamente la buena usabilidad y experiencia del usuario. Una forma de hacer esto con los enlaces salientes consiste en vincular nuestro contenido con otras webs que estén relacionadas y que sean de calidad. Por lo tanto, no se recomienda enlazar con sitios de contenido dudoso, ni abusar de los enlaces salientes. </p><p>Si queremos colocar un enlace saliente y que los buscadores no lo tengan en cuenta (no lo sigan) debemos utilizar el atributo rel=”nofollow”. Este atributo indica al buscador que no debe </p><p>50 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p> seguir el enlace y, por lo tanto, éste no transmite popularidad a la página de destino, quitando valor a dicho enlace, aunque no deja de ser una fuente de visitas. Esto debe hacerse cuando son enlaces publicitarios o de pago, cuando la página a la que enlazamos no guarda relación con la nuestra, o cuando usamos muchos enlaces y no queremos que nos clasifiquen como spam. </p><p>Ejemplo: </p><p><a href="http://www.otrositioweb.com" rel=”nofollow”>Texto del enlace saliente</a> </p><p>2.2.8 Las URLs canónicas El mismo contenido de un sitio web puede verse bajo diferentes URL, lo que supone un problema grave a nivel de SEO, ya que los buscadores van a considerar que hay varias páginas con el mismo contenido y esto nos puede penalizar por contenido duplicado. Para evitarlo, o bien debemos eliminar los URL secundarios que apuntan al mismo contenido, redireccionar los URL secundarios al principal o bien informar a los buscadores de cuál es el URL principal (la que llamamos canónica o preferida) mediante la etiqueta rel=“canonical”, para que no indexen los URL secundarios y tengamos contenido duplicado. </p><p>Por ejemplo, supongamos que estos dos URL nos muestran el mismo contenido. Esto puede ocurrir por una mala programación, por el uso de parámetros en el URL, por ofrecer distintas formas de ordenación de los elementos de una página, por haber duplicado varias páginas o por otros motivos varios: </p><p> http://www.misitio.com/pagina1.html (supongamos que es una URL genuina) </p><p> http://www.misitio.com/categoria/producto1.html (supongamos que es la secundaria) </p><p>Uso de rel=“canonical” </p><p>No redirige al usuario a ningún URL diferente al que ha solicitado. </p><p>Siguiendo el ejemplo anterior, dentro de la cabecera HTML <head> de la segunda página (http://www.misitio.com/categoria/producto1.html) incluiríamos lo siguiente: </p><p><link rel="canonical" href=" http://www.misitio.com/pagina1.html "/> </p><p>Uso de una redirección 301 </p><p>51 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Una redirección 301 indica que la página que antes estaba en un URL ahora ha cambiado a otro URL, “para siempre”. Mediante este sistema, cuando el usuario accede al URL secundario, podríamos redireccionarle al URL principal. </p><p>2.2.9 Mapa del sitio (sitemap) El mapa del sitio o sitemap es un archivo (o conjunto de archivos) escrito en lenguaje XML que sirve para informar a los buscadores de todos los URL del sitio web que deseamos que visiten y se indexen. Este archivo suele guardarse en el directorio raíz de nuestro sitio web, en el URL relativo /sitemap.xml o bajo un nombre similar. </p><p>Además de los URL, que son obligatorios, se puede incluir información adicional para cada página, como la prioridad que tiene para nosotros, la última fecha de actualización y la frecuencia con la que suele actualizarse su contenido. Esto sirve para que los robots de los buscadores, que permanecen un tiempo limitado en nuestro sitio web, prioricen las páginas que deben visitar. </p><p>Si el archivo sitemap no existe, los robots se limitarán a entrar por nuestra página de inicio o por cualquier otra que esté enlazada desde otro sitio web e irán leyendo todo el contenido, siguiendo los enlaces que se encuentren para ir de unas páginas a otras, excepto los etiquetados como nofollow. Si alguna página no está enlazada con ninguna otra y tampoco ha sido informada en el sitemap, el robot no podrá encontrarla ni por lo tanto indexarla. Así que disponer de un sitemap, si bien no es obligatorio, sí es recomendable, especialmente en los siguientes casos: </p><p>• Sitios web grandes que puedan tener cientos o miles de URL. • Sitios que se actualizan con mucha frecuencia y que generan constantemente URL nuevos. • Sitios que hayan sufrido recientemente un cambio en su estructura de URL </p><p>El archivo sitemap tiene una estructura bastante simple. Primero se informa de la versión del lenguaje XML que vamos a usar así como del estándar que estamos aplicando. Después, informamos uno a uno todos los URL. </p><p>Ejemplo de Sitemap para una web con 2 URL diferentes, siendo la home la más importante </p><p><?xml version="1.0" encoding="UTF-8"?> </p><p><urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9" > </p><p><url> </p><p><loc>http://www.misitioweb.com/</loc> </p><p>52 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p><lastmod>2013-09-25</lastmod> </p><p><changefreq>weekly</changefreq> </p><p><priority>1.0</priority> </p><p></url> </p><p><url> </p><p><loc>http://www.misitioweb.com/contacto.html</loc> </p><p><lastmod>2013-09-01</lastmod> </p><p><changefreq>monthly</changefreq> </p><p><priority>0.6</priority> </p><p></url> </p><p></urlset> </p><p>Se incluye una cabecera con la codificación y la versión usada <urlset>, y después se van enumerando todos los URL mediante las etiquetas de apertura y cierre <url> </url>. Algunas etiquetas son obligatorias y otras son opcionales. </p><p>• <loc> Obligatoria. Define el URL de cada página, de forma absoluta, es decir, incluyendo el protocolo http:// o https:// • <lastmod> Optativa. Informa de la fecha de última modificación del contenido de esa página • <changefreq> Optativa. Informa de manera orientativa al buscador de la frecuencia con que se modifica dicha página (solo es posible establecer ciertos valores, en inglés) • <priority> Optativa. Informa de la prioridad que tiene para nosotros esa página, en una escala de 0 a 1, donde 0 es la prioridad más baja y 1 es la prioridad más alta. Lo habitual es establecer la máxima prioridad para la página home. Este valor solo sirve para que los robots sepan qué páginas tienen que visitar antes que otras. </p><p>Podéis consultar información detallada sobre el mapa del sitio para buscadores aquí: </p><p> https://support.google.com/webmasters/topic/4581190?hl=es&ref_topic=4581352 </p><p>53 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Si trabajáis con una plataforma CMS o con productos comerciales, es habitual que cuenten ya con la funcionalidad (por defecto o configurable) para generar automáticamente el mapa del sitio, generalmente en la ruta: </p><p> http://www.mipaginaweb.com/sitemap.xml (donde mipaginaweb.com es el dominio que queréis verificar). </p><p>Por ejemplo, en Wordpress.org, usando el conocido plugin SEO Yoast, se genera un sitemap índice (es un archivo sitemap que informa de varios sitemap) en la siguiente ruta: </p><p> http://www.mipaginaweb.com/sitemap_index.xml </p><p>Desde este sitemap se puede acceder al resto: uno para los URL tipo post, otro para los URL tipo páginas, otro para los URL tipo categorías, etc. </p><p>En un mismo sitemap se pueden comunicar hasta 50.000 URL. Por ello, sitios web más grandes deberían tener varios archivos de mapa del sitio. </p><p>Haced la prueba simplemente escribiendo /sitemap.xml o /sitemap_index.html después de vuestro dominio. Si en esa ruta no se encuentra el archivo puede ser que esté bajo otro nombre o ruta o simplemente que no exista. </p><p>En ocasiones, es posible localizar la ruta concreta donde se almacena el sitemap, gracias a otro archivo necesario para los buscadores: robots.txt, del que hablamos a continuación. </p><p>2.2.10 El archivo robots.txt Como indica su extensión, el archivo robots.txt es un fichero de texto plano que sirve para dar permiso a los robots de los buscadores a que indexen todo nuestro sitio, o bien solo una parte, restringiendo por ejemplo su acceso a determinados recursos. Mediante sencillas instrucciones damos permiso o bloqueamos el acceso a carpetas, archivos, imágenes…, pudiendo además especificar el buscador al que se aplicarán las reglas y la dirección donde pueden encontrar el mapa del sitio. </p><p>El archivo robots siempre debe estar localizado en el directorio raíz de nuestro dominio, bajo el nombre robots.txt. Por lo tanto, para saber si un portal dispone de archivo robots, solo debéis escribir el dominio y después /robots.txt. Si no se muestra nada o sale un aviso de error, es que no existe. Cada dominio y subdominio debe contar con su propio archivo robots, ya que son considerados sitios web diferentes. </p><p>54 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Instrucciones que podemos usar </p><p>User-agent: Se utiliza para identificar el robot sobre el que vamos a aplicar las reglas indicadas a continuación. Es decir, podemos especificar reglas para cada robot, o bien reglas que se apliquen para todos a la vez o para el resto. </p><p>Disallow: Se usa para identificar los recursos que queremos bloquear </p><p>Allow: Se usa para identificar recursos a los que permitimos el acceso como excepción a la regla Disallow. </p><p>Sitemap: Sirve para indicar la ruta donde está localizado el mapa del sitio. </p><p>Es un archivo que realmente solo necesitamos crearlo una vez, y no suele ser necesario actualizarlo. No obstante, si nos equivocamos, puede haber graves consecuencias como, por ejemplo, que no se indexe ninguna página. Por ello debe crearse y editarse con cautela. Se recomienda validarlo a través de la herramienta online <a href="/tags/Google_Search_Console/" rel="tag">Google Search Console</a>, una vez que demos de alta en ella nuestro sitio web y verifiquemos que somos los propietarios. </p><p>Este es un ejemplo de fichero robots.txt que bloquea el acceso total a la web a todos los robots (se recomienda no usarlo): </p><p>#Denegar acceso a todos los robots a todo el sitio </p><p>User-agent: * (el * indica todos los robots, excepto los mencionados en otros User-agent) </p><p>Disallow: / (/ es la raíz de nuestra web, por lo que bloquearla, supone bloquear todo) </p><p>Ejemplo de robots que no bloquea el acceso a ningún contenido y que además informa de la localización del sitemap. </p><p>#Permitir acceso total e informar de la ruta del sitemap </p><p>User-agent: * </p><p>Disallow: (al no poner nada, queremos decir que no bloqueamos nada) </p><p>Sitemap: http://www.misitioweb.com/sitemap.xml (aquí indicamos el sitemap) </p><p>Tenéis más información y ejemplos sobre creación de archivos robots.txt aquí: </p><p> https://support.google.com/webmasters/answer/6062608?hl=es&ref_topic=6061961&rd=1 </p><p>55 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>2.2.11 Web Performance Optimization (WPO) La optimización del rendimiento web (WPO, del inglés, Web Performance Optimization) representa el conjunto de acciones para mejorar la velocidad de carga de un sitio web. </p><p>El rendimiento web es un factor que cada vez ha tomado mayor importancia en SEO (Google nos lleva insistiendo en ello desde 2001) y seguramente es uno de los factores más “técnicos” con los que nos podemos encontrar. Está demostrado que las webs con tiempos de carga elevados tienen mayores tasas de rebote (abandono en la primera página) y una experiencia de usuario deficiente que repercute en las ventas y en cualquier tipo de captación que se lleve a cabo. Para muestra, os dejamos esta infografía: </p><p> https://blog.kissmetrics.com/loading-time/?wide=1 </p><p>Algunos factores que influyen en el tiempo de carga de un sitio: </p><p>• El servidor. Su procesador, memoria, disco duro y cantidad de usuarios influirá en el tiempo de carga de las páginas alojadas en él. • La programación del sitio. Una misma funcionalidad puede programarse de diversas formas, pero la diferencia en el tiempo de ejecución de la tarea puede ser muy diferente en un caso y en otro. Imaginemos esto aplicado a gran escala en una web. Un buen programador debe tener en mente criterios de eficiencia del rendimiento. • La inclusión de múltiples ficheros CSS, Javascript, módulos, plugins…influye notablemente en el tiempo de carga. • El peso de las imágenes. Cuando mayor es una imagen (en términos de kilobytes) más tardará en cargarse. Existen herramientas que nos permiten optimizar y comprimir imágenes como: https://compressor.io/compress • El dispositivo y la conexión de acceso. El tiempo de carga con una conexión de fibra óptica es muy inferior al que se obtiene desde un móvil con una conexión GPRS (por ejemplo, en sitios con baja cobertura). Esto hace que sea necesario programar la web pensando también en los dispositivos móviles (hablaremos de ello en la asignatura siguiente). </p><p>Para analizar el rendimiento de carga o el tiempo de carga de una web y obtener consejos de optimización os recomendamos estas herramientas: </p><p>• Pingdom tools: http://tools.pingdom.com/fpt/ • Web Page Test http://www.webpagetest.org/ • Google PageSpeed Insights: https://developers.google.com/speed/pagespeed/insights/ • GTMetrix: http://gtmetrix.com </p><p>56 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>2.2.12 El contenido del sitio El contenido de un sitio web lo constituyen tanto el texto como los elementos multimedia del sitio web (principalmente imágenes y vídeos). Puesto que el contenido es el núcleo de la página, es lógico pensar que es un factor muy importante para el SEO. Cada vez los robots son más inteligentes y son capaces de entender mejor el contenido de un sitio. Eso hace que en los últimos años el llamado “contenido de calidad” sea el “santo grial” de cualquier propietario web, no solo pensando en los buscadores, sino en los propios usuarios, que en definitiva van a ser los consumidores del mismo. </p><p>Pero, ¿qué significa “contenido de calidad”? </p><p>• Lo primero, que sea original, no copiado de otro sitio ni total ni parcialmente. Además, que no esté duplicado en varias páginas del mismo sitio. Si herramientas como Copyscape.com son capaces de encontrar páginas donde hay contenido que coincide exactamente con el nuestro, ¿cómo no van a detectar esto los buscadores? Simplemente hay que eivtar esta práctica si buscáis un buen posicionamiento. Usad esta herramienta u otra similar para analizar la originalidad del contenido de una página o para saber si alguien os ha copiado. Alternativas a Copyscape: o http://www.plagiarismchecker.com/ o http://smallseotools.com/plagiarism-checker/ o http://www.plagium.com/ o http://www.duplichecker.com/ o http://www.dustball.com/cs/plagiarism.checker/ (1 solo uso por IP) </p><p>Estas herramientas, aunque tienen una versión gratuita, están limitadas. Si llegado el caso os encontráis con que ninguna de ellas os funciona, siempre podéis pegar trozos de texto de la página que queréis comprobar en el buscador y mirar si os aparece en los resultados alguna coincidencia. </p><p>57 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Por ejemplo, en las imágenes anteriores podemos ver que, para la búsqueda de cierto texto descriptivo de un artículo, aparecen varios resultados con un alto grado de coincidencia. Uno probablemente ha copiado la descripción del otro (o bien ambos lo han copiado de un tercero, o de un folleto, o de información suministrada por el fabricante). Esto por ejemplo no es contenido original. Es un problema frecuente en muchas tiendas online. </p><p>Más características de lo que significa contenido de calidad: </p><p>• Tener claro qué se quiere transmitir y a quién. El lenguaje, el estilo, la ortografía, el marcado de párrafos…influye en el posicionamiento. • Fresco, dinámico. Esto no quiere decir que haya que modificar todos los días las páginas, sino que no podemos dejar nuestro portal estático de por vida. Incluir una sección de novedades, noticias o un blog es una buena forma de añadir contenido periódicamente. Será valorado por vuestros usuarios y, por supuesto, por los buscadores, además de que nos dará continuas opciones para posicionar diversas palabras clave. • Incluir las palabras clave con cabeza, de manera “natural”. Si queremos posicionarnos para una palabra clave, recomendamos incluirla varias veces en el contenido para darle la suficiente relevancia, y una al principio. La sobreoptimización, es decir, incluir numerosas veces la misma palabra clave con intención clara de manipular al buscador, puede tener el efecto contrario. En vez de usar 10 veces la misma palabra, es conveniente usar sinónimos o ligeras variantes. Escribid para las personas, no para los buscadores. Se considera sobreoptimización si una palabra clave aparecer en más del 2% del texto, es decir, si aparece más de 2 veces cada 100 palabras. </p><p>2.2.13 Las etiquetas de los encabezados La etiqueta title puede ser considerada como el título que escribimos para los buscadores. Pero, aparte de en el resultado de una búsqueda, el usuario apenas se va a dar cuenta de que existe. Es por ello que para las personas utilizamos otro tipo de títulos, los llamados encabezamientos H. </p><p>Los encabezamientos H son etiquetas HTML que sirven para escribir titulares siguiendo una jerarquía, siendo H1 el encabezamiento principal, el que los usuarios van a percibir como título del contenido. </p><p>58 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>En muchos gestores de contenidos se ha programado por defecto que title y H1 coincidan. Por ejemplo, en Wordpress.org. Sin embargo, esto no tiene por qué así, ya que el title debe ser más descriptivo y explícito (al estar orientado al buscador) mientras que el H1 debe ser más sugerente. </p><p>De la misma forma que cuando escribimos un documento, estructuramos y jerarquizamos el contenido usando titulares o capítulos principales y secundarios para que sea más fácil de leer, con las etiquetas de encabezado ocurre lo mismo. Sirven para estructurar el contenido de la página, dándole más relevancia a unas zonas que a otras. Es por ello que los buscadores también las tienen en cuenta. </p><p>Si hemos dicho que H1 es el encabezamiento principal de la página, H2, H3, H4, H5 y H6 son encabezamientos secundarios. Cuanto más alto es el número, el encabezamiento es menos relevante. De hecho, no es obligatorio que una página web use todos. Lo habitual es encontrarnos encabezamientos hasta H3 en el texto y otros menos relevantes para zonas de la página anexas, como la barra lateral, widgets, etc. También hay que tener en cuenta que deben usarse de forma ordenada, no pudiendo utilizar un H3 si este no tiene un H2 superior. Además, debe haber un único titular principal H1 en cada página. </p><p>Sin embargo, muchas páginas no han sido programadas correctamente teniendo en cuenta esta estructura. Por ejemplo, en Wordpress.org es muy frecuente encontrarnos con plantillas y sitios que cometen varios tipos de errores: </p><p>• Asignar como encabezamiento principal H1 el título del sitio web (a veces, representado mediante el logo), usando los H2 para los títulos de las entradas y páginas. En este caso, como el título del sitio web aparece en todas las páginas, nos encontraremos con que todas las páginas tienen el mismo H1, algo sin duda grave para nuestra relevancia de contenido y el posicionamiento. • Asignar como encabezamiento principal H1 el título del sitio web (a veces, representado mediante el logo), usando también H1 para los títulos de las entradas y páginas. En este caso, todas las páginas y entradas tendrán dos H1, y además uno de ellos se repetirá en todas las páginas. Es también un error importante. • Usar los encabezamientos de forma desordenada, sin haber planificado la estructura previamente. Por ejemplo, si en la columna lateral tenemos una zona con los post recientes y con un titular H4 (Últimos post), debemos asegurarnos de que todas las páginas tienen al menos un H1, un H2 y un H3. O si en el artículo usamos un titular H3, este debe depender de otro H2 y este a su vez de un H1. </p><p>59 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Por ejemplo, en un CMS como Wordpress.org, cuando aplicamos un estilo al texto, podemos indicarle que sea de tipo titular. Cada tipo de titular tiene asociado en la hoja de estilos un estilo diferente (generalmente cambiando el tamaño de la letra e incluso aplicando la cursiva o negrita). </p><p>En el caso de encontrarnos con una plantilla o sitio web que presenta alguno de los errores mencionados, la solución pasa o bien por encontrar otra plantilla que esté mejor optimizada, o bien encargarnos nosotros de reprogramarla, accediendo a los archivos que controlan los contenidos de cada sección, algo que en muchas ocasiones puede resultar complicado si no se tienen conocimientos de programación. Y en el caso de que los estilos de los titulares no nos gusten, por ejemplo, porque el estilo de letra no nos convence o tiene un tamaño demasiado grande, entonces tendremos que acudir a la hoja de estilos de la plantilla, un archivo con la extensión .css. </p><p>A continuación, vamos a ver un ejemplo de cómo podríamos estructurar los titulares en un artículo sobre los mejores smartphones del 2016. Se han creado pequeñas separaciones de los niveles, para que se vean más fácilmente las dependencias. </p><p><h1>Los mejores smartphones del 2016</h1> </p><p>Texto introductorio… </p><p><h2>Smartphones con Android</h2> </p><p>60 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p><h3>Marca Samsung</h3> </p><p>Texto… </p><p><h3>Marca Sony</h3> </p><p>Texto… </p><p><h2>Smartphones con iOS</h2> </p><p>Texto… </p><p>Antes hemos comentado que cada página tiene que tener un único encabezado principal H1. No obstante, la norma HTML 5, que establece un conjunto de nuevas especificaciones para el código HTML, sí permite el uso de varios H1 dentro de una misma página cuando utilizamos las etiquetas <article> y <section>, algo que por otra parte no es lo habitual. </p><p>Por ejemplo, la etiqueta <article>, de acuerdo con la definición de la norma, puede utilizarse cuando se tenga un contenido independiente, distribuible o reutilizable, que al quitarlo no afecte al resto de la página. Como tiene entidad propia, este elemento tiene su propio encabezado H1 y por ello en este caso está justificado que en una página pueda haber varios H1. En caso contrario, se trataría de un error de nuestro código HTML que tiene repercusiones negativas en el posicionamiento de la página. </p><p>Veamos un ejemplo. </p><p>61 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Fragmento de código acerca del uso de los h1 extraído de </p><p> http://webdesign.tutsplus.com/articles/the-truth-about-multiple-h1-tags-in-the-html5-era--webdesign-16824 </p><p>Optimización de encabezados </p><p>A la hora de optimizar nuestro contenido para SEO, es interesante utilizar nuestra palabra clave principal, así como otros términos semánticamente relacionados con la palabra clave, en alguna de las etiquetas de encabezamiento, sobre todo en H1 y H2, que son los que tienen mayor relevancia para los buscadores. </p><p>Si queréis comprobar de forma rápida la estructura de encabezados de cualquier página, os recomendamos usar la extensión Web Developer, disponible para Chrome y Firefox. Es magnífica para analizar numerosos elementos de nuestro sitio web. </p><p>62 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>• Web Developer para Chrome • Web Developer para Firefox </p><p>Hemos escogido un artículo del sitio web ciudadano2.0 para analizarlo. </p><p>Para ello, vamos a la página: </p><p> http://www.ciudadano2cero.com/bloggerview-025-entrevista-arancha-herrero-adelgazarysalud/ </p><p>Y en la extensión de Chrome seleccionamos “Information””View Document Outline”. </p><p>63 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Podemos ver que, en ejemplo de este artículo, la estructura de encabezados es perfecta. En este caso no faltan etiquetas. Aunque hay dos H1, es correcto, ya que el segundo se ha utilizado dentro de una etiqueta <article>. </p><p>La mayoría de páginas, no obstante, no suelen utilizar las etiquetas <article> ni <section>. En este caso, lo correcto para SEO es que solo haya un único H1 por página y, además, sea diferente en cada página. No hacerlo así podemos considerarlo un error de SEO grave. </p><p>Como alternativa a la herramienta Web Developer que os hemos indicado, podéis también analizar los encabezados de cualquier página visualizando su código fuente desde el navegador y haciendo una búsqueda “<h1”, “<h2”, … en el mismo para localizar los diferentes elementos. Para ver el código fuente de una página lo más sencillo es usar la combinación de teclas Control+U (Windows) o Comando+U (Mac). </p><p>Otras herramientas para analizar los encabezados: </p><p>• Extensión X-ray de Firefox (muestra el código html junto a cada elemento), • MozBar para Chrome • Software Screaming Frog (es un programa muy bueno para analizar el SEO interno de un sitio, incluyendo los encabezados H1 y H2) </p><p>2.2.14 Los estilos Además de generar buenos contenidos, es conveniente darles un formato adecuado. Con esto nos referimos al uso de textos en negrita, cursiva, listados u otras opciones de formateado del texto, especialmente para resaltar aquellas palabras clave que queramos posicionar. El lenguaje HTML usado en la creación de páginas web ofrece múltiples etiquetas para este fin. Y para aquellos que no sean técnicos, si vuestro sitio lleva algún gestor de contenidos, estos suelen ofrecer editores de formato. </p><p>Utilizamos las negritas para resaltar una parte del texto que es más importante de un artículo o una sección para cumplir dos objetivos: por una parte, ser visualmente más agradable para el usuario y por otra parte ayudar a los buscadores a indexarlo; la recomendación es no exceder el 15% de las palabras en la página resaltadas con negrita ya que abusar y superar este porcentaje puede ser contraproducente ya que Google no va a saber realmente cuáles son las palabras verdaderamente importantes. </p><p>En el caso de cursiva o subrayado, para el SEO el objetivo es el mismo, resaltar texto para que los buscadores entiendan su importancia en comparación con otras líneas; partiendo de esto, su uso será muy similar al de la negrita, seleccionaremos texto de relevancia en palabras claves y aplicaremos el debido formato. Es importante distinguir niveles de importancia entre negrita, cursiva y subrayado, para que quede claro cuál destaca sobre el resto. </p><p>64 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Por último, es recomendable escribir correctamente, sin errores ortográficos, pues es posible que tenga cierta correlación con el posicionamiento, aunque sobre todo tiene influencia en la imagen que damos a los visitantes. </p><p>En este otro vídeo Matt Cutts habla precisamente sobre ello (está en inglés subtitulado): </p><p> http://www.youtube.com/watch?v=qoFf6Kn4K98 </p><p>2.2.15 Las imágenes Las imágenes son un elemento que enriquece el contenido y lo hace amigable para los usuarios. Desde el punto de vista del SEO, los buscadores no leen las imágenes, no las reconocen, así como tampoco lo hacen con el texto que se incluya dentro, así que si no añadimos una buena descripción a cada archivo, no lo indexarán. La forma de hacerlo puede ser a través de tres atributos de las imágenes: el nombre de fichero, el título de la imagen y la descripción de la imagen. También es importante para el SEO controlar el tamaño y su resolución: </p><p>• Nombre de archivo: Utilizaremos nombres descriptivos para los archivos (salmorejo.jpg) en vez de genéricos (imagen1.jpg). A la hora de nombrarlos, debemos usar guiones “-“ para separar palabras y no usar ni tildes ni “ñ”, tal y como hacemos con los URL. </p><p>• Descripción (texto alternativo): Utilizaremos la etiqueta “alt” de HTML, en la que podremos insertar un pequeño texto que los buscadores analizarán. Este texto debe ser conciso y descriptivo de la imagen. Puede incluir la palabra clave. En este atributo podemos escribir el texto normalmente, separando las palabas con espacios y usando tildes, “ñ”… </p><p>• Título (title). Complementario del atributo “alt”, también puede contener la palabra clave. En este atributo debemos escribir el texto normalmente, separando las palabas con espacios y usando tildes y “ñ”. Además, el título de una imagen muestra al usuario al pasar el ratón sobre ella el llamado tooltip, que es una pequeña capa con el texto indicado en el atributo. </p><p>Ejemplo: </p><p>. </p><p>Debemos utilizar pocas palabras en las descripciones para que los buscadores no nos penalicen por sobreoptimización. </p><p>65 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Tamaño: El tamaño y, por tanto, la resolución de las imágenes, afectan al SEO en cuanto a la usabilidad por parte de los usuarios. Debemos evitar las altas resoluciones de las imágenes que llevan asociados mayores tamaños de archivos, y carga más lenta. Esto es especialmente importante hoy en día en que muchos usuarios consultan Internet desde el móvil. Por ejemplo, una imagen de 300x300 de resolución no debería ocupar más de 100kb. </p><p>En la primera imagen, el texto de la etiqueta “alt” no tiene significado para el buscador ni para los usuarios. En la segunda, ayudaríamos a posicionar la palabra clave “tendencias marketing digital”. </p><p>Para saber si una imagen tiene los atributos rellenos, lo más sencillo es inspeccionando el código fuente de la página o de la imagen en concreto. Por ejemplo, con el navegador Chrome se puede hacer posicionándonos sobre la imagen, pulsando el botón derecho del ratón y </p><p>66 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p> seleccionando la opción “inspeccionar elemento”. Todos los navegadores disponen de opciones así. </p><p>Aquí podemos ver el código fuente de la imagen, representada por el elemento HTML <img>. En este caso, la imagen no tiene “title”, el nombre de la misma no incluye ninguna palabra clave en especial y su atributo “alt” tampoco incluye ninguna palabra clave ni es descriptivo de la imagen. Definitivamente, esa imagen no está optimizada para SEO. </p><p>También podemos usar la extensión de Chrome que hemos mencionado antes “Web Developer”, pulsando sobre “Display Alt Attributes” dentro del menú “Images”. Esto hará que se visualicen todos los atributos “alt” de las imágenes de la página. </p><p>67 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>2.2.16 Integración con redes sociales Dar a conocer nuestro sitio web en las redes sociales es también una buena oportunidad de conseguir más lectores y darle mayor relevancia en internet. Para ello, es conveniente tanto enlazar nuestro portal con los diferentes perfiles sociales que tengamos como incluir botones que sirvan para que nuestros visitantes puedan compartir activamente artículos, productos, etc. de nuestro sitio en sus perfiles. Hay numerosos plugins y códigos ya preparados para agregar estos botones. </p><p>68 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>3 SEO Off Page </p><p>Hasta el momento hemos hablado de los principales factores On-page. Bien, de manera simultánea a la optimización On-page, o bien tras haber realizado ésta, tendremos que trabajar también los factores Off-page, ya que son los que nos pueden dar el verdadero empujón cuando tenemos cierto posicionamiento. </p><p>Los factores Off-page no son tan controlables, pero requieren igualmente de una estrategia específica para llevar a cabo las acciones correspondientes. </p><p>La base del SEO Off page está en los enlaces que conseguimos hacia nuestro sitio, también llamados backlinks o enlaces externos. Conseguir que otros portales nos enlacen es muy importante, ya que estos “votos”, además de conseguirnos visitas, aumentan la popularidad (también llamada autoridad) de nuestra web, también en la medida en que sea popular el sitio web que nos enlaza. Por ello, cuando hablamos de popularidad de un sitio, lo medimos en base a la cantidad de enlaces que recibe y también a la calidad de esos enlaces. </p><p>La consecución de enlaces externos se puede llevar a cabo de dos formas: activamente, lo que se conoce como estrategia de Linkbuilding, y pasivamente, estrategia denominada como Linkbaiting. A continuación, vamos a analizar las técnicas más utilizadas con ambas estrategias. </p><p>3.1 Linkbuilding Linkbuilding es el conjunto de acciones que tienen como objetivo la generación activa de enlaces desde otros sitios web, con el objetivo de aumentar la relevancia y autoridad de un sitio web y, en definitiva, de mejorar su posicionamiento. </p><p>Hemos hablado de cantidad y de calidad. Parece lógico pensar que cuantos más enlaces recibamos, más popular será nuestro sitio. Sí, es cierto, pero todos los enlaces no tienen el mismo valor para los buscadores, de forma que un enlace de alto valor puede tener mayor influencia que 100 enlaces de bajo valor. Entonces, ¿de qué depende el valor que se asigna a cada enlace? </p><p>• Autoridad del sitio que enlaza: una medida muy simple de la autoridad es el PageRank. Cuanto mayor es el PageRank de la página que nos enlaza, más popularidad nos traspasará. El PageRank visual (en escala de 0 a 10) desgraciadamente ya no se va a actualizar más (al menos eso ha dejado entrever Google). Sin embargo, Google conoce en todo momento la popularidad de un sitio web y el PageRank numérico real. Otra cosa es que ya no le interese mostrar este dato para evitar manipulaciones. También hay que tener en cuenta que el PageRank que una página transmite, se divide entre todos los enlaces salientes. Así, no es lo mismo que nuestro enlace sea único en la página a que además del nuestro haya otros 100. En este caso, se va a dividir su valor. </p><p>69 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Entonces os preguntaréis ¿cómo podemos medir la autoridad de un sitio Web o dominio? A día de hoy las métricas más utilizadas para conocer el índice de popularidad de un dominio son el PA (Page Authority) y DA (Domain Authority). </p><p>¿Qué son DA y PA? </p><p>Estos dos términos proceden de la compañía MOZ, que para los que no la conozcáis, es una agencia estadounidense que ofrece servicios de marketing y de análisis SEO. Debido a la gran influencia de esta compañía a nivel global, se acuñaron estos dos términos, Domain Authority y Page Authority, que son muy empleados hoy en día para valorar la popularidad o nivel de autoridad de una página web. </p><p>DA (Domain Authority) hace referencia a la autoridad o prestigio de una Web en base a su dominio. Es una métrica que mide el potencial que tiene una página a la hora de posicionarse en los motores de búsqueda. PA es el mismo concepto, pero a nivel de página individual, es decir, la autoridad que tiene una página dentro de nuestro dominio. Por ejemplo, si tenemos un sitio web con 5 páginas, cada una de ellas tendrá su PA, que dependerá de la optimización SEO y de los enlaces que apuntan a la misma. Por su parte, DA es común para todas. </p><p>Lo habitual es que sea la página home o inicio la que tenga el valor de PA más alto, ya que es la que recibirá más enlaces. </p><p>Ambas métricas se valoran en una escala de 1 a 100 y su valor se calcula en base a más de 40 factores (según indica MOZ). Dos de los factores empleados para calcular el DA y PA son MozRank y MozTrust, que como podéis deducir también han sido acuñados por la compañía MOZ y que dependen directamente de los enlaces externos que apuntan a una web. Además, al igual que ocurre con el PageRank, su valor está en una escala logarítmica, lo que quiere decir que una subida de 0 a 10 tiene menos valor y es más sencilla que una subida 10 a 20 y mucho menos valor que una subida de 20 a 30. </p><p>¿Cómo podemos obtener los valores de DA y PA de un sitio web? </p><p>De dos formas distintas: </p><p>1. Visitando la Web de Moz, a través de su herramienta OpenSiteExplorer . El principal inconveniente de hacerlo así es que solo permite realizar 5 análisis al día por IP, aunque si disponemos de una IP dinámica podemos reiniciar nuestro router y conseguir una nueva IP . </p><p>70 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>2. Instalando la MozBar como complemento en nuestro navegador Chrome: Es una extensión del navegador que no tiene ningún límite diario y la principal ventaja es que se puede hacer mientras visitamos la Web del dominio que queremos analizar. La podéis obtener desde aquí. Solo está disponible para los navegadores Chrome y Firefox. Una vez instalada, solo tendremos que hacer clic sobre el icono de la barra MOZ y automáticamente nos devolverá los valores de DA Y PA de la página </p><p>Seguimos con los factores que influyen en el valor de cada enlace… </p><p>• Dirección IP del sitio que enlaza. Debemos esforzarnos por conseguir enlaces de diferentes IP. Si un conjunto de páginas comparte el mismo servidor (algo habitual si son del mismo propietario), su IP será la misma. Que todas ellas nos enlacen va a ser considerado como “poco natural” y por ello tendrá menos valor. • Antigüedad del sitio web que enlaza. A mayor antigüedad del sitio que nos enlaza, mayor importancia le dan los buscadores. • Temática del sitio que enlaza. Es más valioso recibir un enlace de un portal cuya temática es similar a la nuestra que de un sitio que no tiene nada que ver con nosotros. • Idioma del sitio que enlaza. Los buscadores dan más valor a los enlaces de páginas en el mismo idioma que la página de destino. </p><p>Además de valorar la fuente de origen, también se valoran las características del enlace. Respecto a esto, debemos tener en cuenta lo siguiente: </p><p>• Texto ancla: el texto ancla o anchor text es el texto visible sobre el que el usuario hace clic para llegar a nuestra página. Los buscadores utilizan este elemento para identificar el contenido de la página de destino, de manera que resulta interesante generar enlaces cuyo anchor texto incluya las palabras clave relevantes de la página </p><p>71 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p> objetivo. Indudablemente, resultaría artificial que todos los enlaces que apuntan a una determinada página contaran con la palabra clave como texto de enlace, con lo cual, un perfil de enlaces natural debería también contener otros anchor text como: nombre de marca, genéricos como “ir a la página” o “pulse aquí”, palabras clave relacionadas… • Atributo rel=”nofollow/dofollow”: se trata de un atributo que bloquea (nofollow) o permite (dofollow) la transmisión de popularidad de la página de origen a la de destino. Sirve para indicar a los buscadores si deben seguir o no el enlace, lo que implica que los buscadores tienen más información para el cálculo de la autoridad del sitio de destino. Si no se especifica nada, el enlace se considera como “dofollow”. Por lo tanto, recibir enlaces etiquetados con “nofollow” no tiene valor para nuestro SEO, si bien es positivo de cara a recibir visitas. Su sintaxis es la siguiente: </p><p><a href=”http://www.xxx.com” rel=”nofollow”>Haz clic aquí</a> </p><p>• Ubicación dentro de la página: Los enlaces que se muestran en la parte superior de la página tienen mayor valor que si incluyen en la parte de abajo. Los enlaces en el contenido tienen mayor valor que los enlaces en el pie o en zonas laterales. </p><p>3.1.1 Los directorios de enlaces Los directorios de enlaces son sitios web que clasifican los portales en categorías. A nivel del SEO, dado el abuso que se ha realizado de ellos, su utilidad es cada vez menor e incluso algunos expertos indican que los buscadores ya no los tienen en cuenta. </p><p>Las ventajas del uso de directorios para conseguir enlaces es que suelen ser portales populares y con antigüedad. Es una forma rápida de conseguir enlaces, si bien en muchos casos estos enlaces son “nofollow”. </p><p>Podemos diferenciar entre tres tipos de directorios: </p><p>• Gratuitos: Podemos incluir nuestro sitio web sin pagar, por lo que los recomendamos. Por ejemplo, dmoz.org es uno de los más populares, si bien se reserva el derecho de admitirnos. Otros son: o http://www.360dir.com/ o http://www.eldirectori.cat/ o http://www.yalwa.es/ o http://www.indizze.com/ </p><p>72 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>• De pago: La inclusión de nuestra web en ellos implica el pago de cierta cantidad. Por ejemplo: https://es.foursquare.com/accounts • Recíprocos: El directorio publica un enlace a nuestro sitio a cambio de que nosotros también generemos un enlace al directorio. </p><p>Google, tiempo atrás, hizo referencia en sus directrices a lo importante que era enviar el sitio web a los directorios y lo que ocurrió fue que se generó gran obsesión con ello por parte de los Webmasters. En la actualidad, dicha estrategia está devaluada y aunque es interesante aparecer en alguno, solo debemos centrarnos en los más importantes. Son útiles aquellos que añaden valor editorial, revisando y denegando aquellas entradas de baja calidad. </p><p>3.1.2 Directorios de artículos y notas de prensa Los directorios de artículos y notas de prensa son sitios web que permiten la publicación de contenido de diferentes temáticas. </p><p>El funcionamiento de estos directorios es a través de un registro de usuario e inserción de los contenidos utilizando el panel de administración. Su principal beneficio a nivel de SEO radica en la inclusión de enlaces en el cuerpo de texto que apunten a nuestro sitio web. </p><p>El hecho de que existieran hace tiempo muchos directorios que permitían la publicación de contenido sin revisión, generó mucho contenido de baja calidad. Por ello, desde el lanzamiento de Google Panda, Google está luchando con ello, devaluando considerablemente la importancia de muchos de estos directorios. </p><p>El uso de directorios de artículos y notas de prensa en nuestra estrategia de linkbuilding estaría justificado en el caso de contenido “original” y directorios que revisen los contenidos con el objetivo de garantizar la calidad del sitio web. </p><p>Existen páginas que ofrecen servicios de notas de prensa como: </p><p>• http://www.comunicae.es/ • http://www.tusmedios.es/ </p><p>3.1.3 Foros La participación en foros especializados puede ser interesante, ya que estas páginas poseen alto volumen de tráfico y los robots los suelen visitar con frecuencia. No obstante, hay que tener cuidado con la inclusión de enlaces ya que la moderación puede considerarlos como spam, eliminándolos. En otros casos, estos enlaces suelen ser configurados por el Webmaster para que incluyan el atributo “nofollow”, con lo que, si bien sirven como fuente de visitas, a efectos de la popularidad SEO no tienen relevancia. </p><p>73 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>3.1.4 Blogs Los blogs son en nuestra opinión una buena herramienta para la generación de enlaces, mediante dos tipos de acciones: </p><p>• Comentarios: normalmente, los blogs permiten la publicación de comentarios. Sin embargo, la mayoría los moderan e incluyen el atributo “nofollow”. En estos casos, su utilidad se reduce. </p><p>• Artículos: la generación de enlaces en el cuerpo de los artículos de los blogs suele ser muy efectiva, aunque existe el inconveniente de que, por lo general, los propietarios suelen ser muy reacios a publicar enlaces sin obtener un beneficio a cambio. En este sentido, se trata de proponer una relación en la que ambas partes salgan beneficiadas. Algunas ideas que pueden ayudar a que el bloguero permita la publicación pueden ser: el intercambio del producto, convocar un concurso o proporcionar contenido regularmente. </p><p>Esta última acción es la que popularmente se llama “guest blogging” y es muy útil para, además de conseguir un enlace, atraer tráfico de calidad desde blogs con buena reputación y aumentar la popularidad en el sector. El bloguero invitado escribe un post en el blog del otro portal a cambio de obtener visibilidad y conseguir un enlace al suyo propio. Evidentemente, el post debe ser original y no debe publicarse en el propio blog, pues estaríamos duplicando contenido. </p><p>En cualquier caso, Google está aumentando su atención sobre el “guest blogging”, para detectar posibles compras de artículos. Nuestra recomendación, variar los sitios web en los que publicamos, variar los anchor text de los enlaces que usemos y no abusar de este método, centrándonos si es posible en sitios web de alta autoridad. </p><p>3.1.5 Intercambio de enlaces Los intercambios con otros portales suelen funcionar relativamente bien y son fáciles de llevar a cabo, ya que las dos partes salen beneficiadas. Dentro de esta categoría, podemos encontrar, fundamentalmente, intercambio de enlaces y de post. </p><p>A través de los intercambios de post, los participantes publican contenido y de esta forma, “alimentan” su portal web. La forma más efectiva de implementar esta acción es a tres bandas, es decir, no enlazar recíprocamente para evitar una posible pérdida de valor cuando los enlaces son bidireccionales. Por ejemplo, A enlaza a B, B enlaza a C y C enlaza a A. </p><p>En el intercambio de enlaces también es importante que no exista esta bidireccionalidad, sino que participen al menos 3 sitios. </p><p>74 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Hoy en día todavía siguen existiendo muchas webs abiertas a este tipo de acciones. No obstante, si bien es una forma rápida de conseguir enlaces, debemos ser cuidadosos con los sitios con los que nos enlazamos. Desde el lanzamiento de Google Penguin, el abuso y los enlaces indiscriminados no son bien vistos por el buscador. </p><p>3.1.6 Enlaces pagados La compra-venta de enlaces con el objetivo de mejorar el posicionamiento en buscadores está penalizada por Google y se informa de ello en su guía para Webmasters. </p><p>Podéis consultar los siguientes artículos al respecto: </p><p> http://googlewebmaster-es.blogspot.com.es/2013/02/recordatorio-sobre-la-venta-de- enlaces.html </p><p> https://support.google.com/webmasters/answer/66356?hl=es </p><p>Aunque ha existido y sigue realizándose, que quede claro que la compra de enlaces no es la mejor estrategia para conseguir mejorar la reputación de nuestro sitio. Desde la actualización Google Penguin, para seguir las directrices de calidad del buscador lo mejor es mantenerse lejos de este tipo de prácticas. Además, muchos de los sitios que permitían llevar a cabo esta práctica fueron penalizados y perdieron gran parte de su autoridad, por lo que a su vez perjudicaron a los sitios enlazados, que dejaron de incrementar esa popularidad. </p><p>Ante la dificultad con la que nos encontramos para distinguir la compra-venta de enlaces con fines publicitarios y la que tiene como finalidad conseguir nuestros objetivos de posicionamiento, no podemos afirmar con rotundidad que haya que descartar en todos los casos esta técnica, aunque sí debemos tener siempre en cuenta la calidad de estos enlaces, su origen y el impacto que podrían tener en nuestro sitio. </p><p>Por ello se están popularizando los sitios de compra de reseñas, mediante los cuales decenas o cientos de sitios web ofrecen escribir un post con un enlace a cambio de una cantidad que puede ir desde los 10€ a los 150€. En nuestra opinión, esta estrategia debe abordarse siempre de manera complementaria y en el caso de recurrir a ella, realizarla con precaución (no comprar más de 2 ó 3 al mes, no comprar todos los meses, etc.). Las empresas interesadas en posicionamiento cada vez más recurren a esta estrategia, llegando a invertir bastante dinero. Y es que al tratarse de artículos con un enlace en sitios web muy diversos, a los buscadores les es muy difícil de saber si son enlaces pagados o no. Nuestra recomendación también es que, si se compra una reseña, variar la palabra clave y la página de destino y, por supuesto, asegurarse de que el enlace es dofollow. </p><p>75 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>3.2 Linkbaiting Linkbaiting es el conjunto de acciones cuyo objetivo es la generación de enlaces pasiva, es decir, a través de la viralidad del contenido que difundamos. El objetivo es publicar contenidos que generen tanto interés en otros usuarios y portales como para merecer un enlace a modo de “premio”. </p><p>La ventaja de esta técnica frente al Linkbuilding, es que los enlaces se generan de forma más natural. </p><p>Los aspectos a tener en cuenta en nuestra estrategia de Linkbaiting son: </p><p>• Escribir buenos contenidos, ya que la probabilidad de ser enlazados por otras fuentes es mayor. La tipología de estos contenidos puede ser muy variada: artículos de opinión, noticias, tutoriales, estudios, pdf… Estamos hablando de una estrategia de marketing de contenidos. Los artículos con listas, del tipo de “cómo hacer”, consejos, guías o tutoriales pueden aumentar nuestra popularidad de manera considerable. • Definir la licencia: para especificar claramente que cierto contenido puede ser utilizado por otros portales, podemos añadir una nota al final del artículo especificando la forma en que estos portales deben referenciarnos. • Distribuir los contenidos: para que el público pueda saber de la existencia de un contenido, es necesario “promocionarlo”, sobre todo si el portal no cuenta con un nivel considerable de tráfico. Para promocionar el contenido podemos utilizar portales que se dedican a sindicar contenidos, portales dedicados a la publicación de artículos y notas de prensa o bien, blogs populares del sector y, por supuesto, las redes sociales. </p><p>3.3 Social Media Opimization (SMO) La aparición de la web social ha permitido que también los usuarios puedan potenciar una estrategia SEO generando contenido, trasmitiéndolo y promocionándolo a través de las diferentes plataformas sociales. </p><p>En este sentido, nació lo que se conoce como Social Media Optimization u optimización en medios sociales. Dentro del SMO se pueden incluir todas aquellas acciones dirigidas a mejorar el posicionamiento a través de webs 2.0. </p><p>Existe hoy en día una gran proliferación de sitios web 2.0 donde se puede incrementar la popularidad gracias a ofrecer el propio sitio y contenido multimedia. En este tipo de sitios, aunque la mayoría de enlaces que generan son de tipo “nofollow”, suponen una fuente importante a la hora de conseguir enlaces externos y tráfico cualificado. </p><p>76 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Hace ya tiempo que Google habló de la importancia de los enlaces sociales dentro de nuestra estrategia de posicionamiento. Para ello, podemos apoyarnos en sitios como: </p><p>• Scribd o Slideshare, donde podemos subir documentos pdf o de texto y presentaciones. • Delicious o Diigo, que funcionan como agregadores de favoritos. • Menéame o Digg, que funcionan como agregadores de noticias y en donde cada noticia enviada se convierte en un enlace hacia la fuente original. • Redes sociales como Facebook donde poder enlazar desde la página de portada. • Google Plus • Plataformas multimedia de fotos como Flickr, o de video como Youtube. </p><p>3.4 Black Hat SEO En la lucha para conseguir las posiciones destacadas en los buscadores, no todo vale. </p><p>Una correcta estrategia SEO se debe plantear dentro de la ética y usando acciones no consideradas como prohibidas. Y es que cuando llevamos a cabo el trabajo de optimización de nuestra web podemos tener la tentación de usar ciertos “trucos” que tienen como objetivo mejorar nuestro posicionamiento de forma artificial, a costa de engañar a los buscadores. </p><p>Este conjunto de técnicas consideras por los buscadores como prohibidas reciben el nombre de Black Hat SEO y son posibles porque explotan las debilidades de los algoritmos de búsqueda. </p><p>En ese sentido, los buscadores en su objetivo de mejorar la experiencia de los usuarios y ofrecer resultados de calidad, luchan a diario contra los sitios web que pretenden alcanzar las primeras posiciones usando este tipo de técnicas. </p><p>En nuestra opinión, en el caso (posible) de obtener una ventaja mediante este tipo de acciones, será de manera temporal, pero estaremos asumiendo un gran riesgo de ser penalizados fuertemente e incluso eliminados del buscador, dando al traste de manera indefinida con todo lo logrado hasta el momento. Son muchos los sitios web que, de un día para otro, han dejado de aparecer bien posicionados, con el efecto negativo que ello supone en términos de visitas e ingresos. </p><p>Los buscadores, en sus directrices de calidad nos incluyen las principales prácticas manipuladoras o engañosas que no se deben llevar a cabo. Vamos a enumerar a continuación las técnicas Black Hat más populares. </p><p>77 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>3.4.1 Contenido oculto Es una de las técnicas más antiguas y consiste en ocultar parte del texto a los usuarios para aumentar la relevancia de algunas palabras clave de cara a los buscadores. </p><p>Por ejemplo, incluyendo texto del mismo color que el fondo, o con tamaños de letra invisibles, u ocultándolo mediante CSS. </p><p>Hay que tener en cuenta que, aunque el texto no sea visible a los usuarios, los buscadores sí son capaces de rastrear e identificar la información oculta, ya que forma parte del código de la web. </p><p>3.4.2 Keyword spamming o keyword stuffing Esta técnica era muy utilizada hace tiempo y actualmente está en desuso debido a que es muy castigada. Consiste en la repetición de las palabras clave de manera abusiva con el objetivo de aumentar la densidad de las mismas en la página e incrementar de esta forma su relevancia. Esta práctica genera una mala experiencia en los usuarios y se considera como una sobreoptimización de la página. </p><p>Antiguamente, las palabras clave se incluían también en la meta etiqueta keywords, llegando a haber páginas con cientos de palabras en esta meta etiqueta, motivo por el que muchos buscadores, entre ellos Google, decidieron obviarla como factor de posicionamiento. </p><p>3.4.3 Doorways (páginas traseras) Páginas puerta, páginas traseras o Doorways son grandes grupos de páginas de baja calidad que se optimizan para una palabra clave concreta, con lo que su objetivo es posicionarse rápidamente en el buscador para dicho término de búsqueda. Se pueden implementar tanto en un solo dominio como en muchos. </p><p>Su objetivo es generar gran cantidad de tráfico al sitio y cuando el usuario accede se le redirecciona a la verdadera página mediante un enlace Javascript, que los navegadores no van a leer y, por lo tanto, no van a ver la verdadera página a la que lleva. Se puede ver como una forma especial de Cloaking. </p><p>Ejemplos: </p><p>• El uso de varios nombres de dominio orientados a distintas regiones o ciudades que dirigen a todos los usuarios a una sola página. • Las páginas hechas con plantillas únicamente para los programas de afiliados. • Varias páginas dentro del sitio con contenido similar diseñadas para posicionarse en consultas de búsqueda concretas, como nombres de ciudades o de países. </p><p>78 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>3.4.4 Cloaking También conocido como encubrimiento o redireccionamiento elusivo, consiste en mostrar a los robots de los buscadores una página totalmente distinta a la que se muestra al usuario. </p><p>Algunas de las técnicas más comunes para llevarlo a cabo son: </p><p>• IP: mostrar una página diferente en función de la IP del usuario. </p><p>• User-agent: se trata de mostrar diferente contenido en función del agente del cliente. </p><p>• Meta etiqueta refresh: se trata de redireccionar una página usando la meta-etiqueta refresh del código. </p><p>• Frames: consiste en programar una redirección con Javascript dentro de un frame o iframe (un iframe es un elemento HTML que permite integrar una página o trozo de página dentro de otra, generalmente perteneciente a otro portal). </p><p>El objetivo es incrementar artificialmente la popularidad. Sin embargo, Google aconseja expresamente en sus directrices evitar el uso de encubrimientos o redirecciones elusivas pudiendo ser fuertemente penalizado si se detectara. </p><p>3.4.5 Contenido copiado, duplicado o remezclado Además de contenido calidad para nuestra web, debemos centrarnos en generar contenido original y actualizado. Hay que tener en cuenta que la copia de contenidos de terceros es una práctica penalizada por los buscadores y muy perseguida. </p><p>La copia de contenido tiene como objetivo ganar visibilidad o simplemente evitarnos el esfuerzo de escribir, pero lo que en la mayoría de los casos se consigue es una pérdida de reputación y un nulo o mal posicionamiento orgánico. </p><p>Muchos de los portales que llevan a cabo estas prácticas utilizan técnicas de web scraping que consisten en extraer contenidos de un sitio web, generalmente de forma automatizada, infringiendo los derechos de autor. Google Panda precisamente ha tenido como uno de sus objetivos penalizar a este tipo de sitios web. </p><p>En cualquier caso, para denunciar este tipo de prácticas, Google puso a disposición de los usuarios la herramienta Google Scraper Report (reporte de contenido copiado): </p><p> https://docs.google.com/forms/d/1aWx7_K4lL- AL6thHVRuv9AhAY6yxRegrQuXA2ybRgOc/viewform?formkey=dC1kcWlFRHVMbUZLSFh mdXB1dFUwaHc6MA#gid=0 </p><p>79 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>En realidad, se trata de un formulario a través del cual se puede informar a Google sobre contenido copiado, cuál es la URL del contenido original, la URL del contenido copiado y la búsqueda en la que aparece el contenido copiado por encima del contenido original. De hecho, solo debe usarse este formulario si el contenido copiado aparece por encima del original o si el original no aparece. Si bien no va a tener resultados inmediatos, Google al menos se tomará el tiempo de analizar dichas solicitudes. </p><p>Google Panda </p><p>3.4.6 Generación de enlaces artificiales Las recomendaciones de los buscadores tienen que ver con evitar participar en esquemas de enlaces o construir enlaces artificialmente para mejorar los rankings. </p><p>Las técnicas Black Hat más comunes en esta categoría son: </p><p>• Conseguir backlinks desde sitios que están plagados de enlaces, conocidos como granjas de enlaces o link farms. Estos sitios no ofrecen valor al usuario y sus enlaces además de no beneficiar nuestro posicionamiento, pueden perjudicarnos. En la siguiente imagen podéis ver el aspecto de una página considerada una granja de enlaces. </p><p>80 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Google en su aplicación online Google Search Console, cuenta con una herramienta para desautorizar enlaces: https://support.google.com/webmasters/answer/2648487?hl=es https://www.google.com/webmasters/tools/disavow-links-main?pli=1 </p><p>No obstante, el hecho de desautorizar enlaces podría hacerle pensar a Google que hemos manipulado artificialmente dichos enlaces, por lo que es mejor usarla sólo para los enlaces que no puedan ser retirados manualmente. Lo ideal es contactar con el sitio web que nos ha enlazado y solicitar que retiren su enlace. Y, por supuesto, conseguir enlaces de buena calidad que “absorban” la mala reputación de los enlaces “tóxicos”. </p><p>• Enlaces de portales de dudoso contenido que no tienen nada que ver con nuestra actividad y que además pueden tener los enlaces ocultos. </p><p>• Compra y venta de enlaces: desde siempre ha existido la compra y venta de enlaces con el fin de manipular el posicionamiento orgánico. La creación de enlaces desde sitios con alta autoridad para mejorar los rankings es una técnica Black Hat muy común y está perseguida y castigada por los buscadores. </p><p>• Esquemas de enlaces: los enlaces provenientes de portales que comparten la misma dirección IP son menos valiosos para los buscadores al interpretar que podrían pertenecer a la misma empresa. </p><p>• Spam de enlaces: crear blogs y webs de baja calidad con el único fin de mejorar el posicionamiento de los sitios web principales, creando gran cantidad de backlinks. </p><p>81 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>4 Penalizaciones SEO </p><p>Sobrepasar los límites a través de acciones consideradas Black Hat SEO puede provocar penalizaciones, cuyas consecuencias se ven reflejadas en bajadas de ranking y en pérdida de visibilidad del sitio en los buscadores. </p><p>Los dos tipos de penalizaciones a los que nos podemos enfrentar son: </p><p>• Manuales: Son llevadas a cabo por personas y se inician porque se ha detectado que un sitio ha incumplido alguna de las directrices de calidad o porque alguien ha enviado un informe de spam denunciándolo. El personal se encarga de intervenir el sitio web llevando a cabo acciones manuales, según corresponda, sobre una palabra clave, varias o sobre la web, incluso borrándola del índice. A través del apartado de ‘Acciones manuales’ en las herramientas para Webmasters (Google Search Console) del buscador podemos saber si hemos sido penalizados, el tipo de penalización, posibles acciones a realizar… </p><p>• Automáticas: Este tipo de penalizaciones son ejecutadas de manera automática por los algoritmos y no generan notificaciones. En este caso de Google será GoogleBot el encargado de comprobar nuestro sitio y no existe la posibilidad de enviar una solicitud de reconsideración. Sin embargo, estas penalizaciones son más fáciles de solucionar y requieren algún tipo de intervención en nuestro sitio para adecuarlo a las especificaciones de los filtros del algoritmo. Por ejemplo, si el robot ha detectado código malicioso en el sitio, al eliminar dicho código se solucionará el problema. </p><p>Dentro de los motivos más comunes que pueden llevar nuestra web a una penalización, nos encontramos la compra de enlaces. Con respecto a la compra de enlaces, la postura de los </p><p>82 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p> buscadores es clara y se considera una violación de las directrices de calidad siempre y cuando se traspase PageRank/autoridad y se haga con el objetivo de manipular los resultados de búsqueda. Google puede penalizar sitios web que compren o vendan enlaces, por lo que se aconseja etiquetar con rel=”nofollow” aquellos enlaces cuyo fin sea publicitario y no una manipulación de los rankings para evitar problemas. </p><p>83 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>5 SEO en otros medios </p><p>5.1 SEO para Google My Business En los últimos años los buscadores más importantes y especialmente Google han optado por mostrar con más frecuencia resultados personalizados para los usuarios. Esto quiere decir que, ante una misma búsqueda, los resultados en los buscadores de distintos usuarios no son los mismos. </p><p>Actualmente el factor más importante que influye en la personalización de los resultados de búsqueda está vinculado directamente con la geolocalización del usuario. Y es que los buscadores saben dónde nos encontramos o si estamos realizando una búsqueda local y adaptan los resultados a este factor para mejorar la experiencia de búsqueda y facilitar que encontremos rápidamente lo que queremos. Por ello, las búsquedas muestran resultados relacionados con la zona o ciudad sobre la que el usuario esté realizando la búsqueda. </p><p>La optimización de SEO local está especialmente indicada para aquellos negocios cuyo público objetivo se encuentre en una localidad o provincia específicas. Gracias al SEO local podemos competir con otras páginas web de carácter nacional importantes y conseguir aparecer por encima de ellas en los resultados de búsqueda. </p><p>La principal forma de tener presencia en las búsquedas locales es gracias a la herramienta Google My Business. Se trata de un servicio de Google mediante el cual se puede: </p><p>• Mantener actualizada la información de nuestra empresa. • Estar en contacto con nuestros clientes y fidelizarlos a través de publicaciones y reseñas. • Realizar un seguimiento de las interacciones con estadísticas actualizadas. • Aparecer en Google Maps </p><p>Para dar de alta nuestra empresa en este servicio, debemos crear una página de Google My Business a través de la siguiente dirección y completar el registro con los datos reales de la empresa. Para que la información introducida aparezca en los resultados de búsqueda, es necesario que validemos la ficha de empresa con un código PIN que Google nos proporcionará a través del correo postal. </p><p>Algunos consejos para mejorar el posicionamiento SEO tu ficha de negocio: </p><p>1) Asegúrate de que la ficha de empresa esté completa y sea precisa: añade teléfonos de contacto, imágenes, horarios de apertura y una descripción del negocio. </p><p>84 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>2) Selecciona las categorías específicas más adecuadas para tu empresa: Elige una categoría de la lista de sugerencias para ayudar a Google a mostrar tu empresa en las búsquedas adecuadas. </p><p>3) Establece una presencia sólida y adecuada en Internet: Asegúrate de que la información que aparece en otros sitios acerca de tu empresa (dirección, contacto…) sea correcta y, si no lo es, ponte en contacto con cada sitio directamente para corregir cualquier tipo de información errónea. </p><p>4) Anima a tus clientes a opinar sobre tu empresa haciendo clic en Escribir una reseña en la ficha local. </p><p>5) Promociona tu página de Google+ y consigue seguidores: Publica con frecuencia y mantén tu perfil al día. </p><p>5.2 SEO para móviles El creciente uso de dispositivos móviles hace que debamos pensar de qué manera nos afectará a nuestro negocio. </p><p>El “mobile marketing” o marketing para móviles es una realidad y un terreno a conquistar, entre otras cosas por el rápido crecimiento de la tecnología móvil y las tarifas de internet, cada día más económicas. </p><p>No hay duda que el uso del móvil como acceso a internet es imparable y también el número de búsquedas móvil está creciendo a una velocidad vertiginosa. En este sentido, es importante que nuestro sitio web esté bien posicionado para las búsquedas realizadas desde dispositivos móviles. </p><p>Algunos consejos para lograr un buen posicionamiento natural son: </p><p>• Disponer de una web adaptada a móviles, ya sea una versión específica móvil o una web adaptativa (esto lo abordaremos detalladamente en el bloque de Mobile Marketing) • Optimizar el tiempo de carga de la versión móvil y evitar elementos que pueden no verse en móviles como el Flash. </p><p>5.3 SEO para vídeos El vídeo es uno de los formatos más demandados por los usuarios de internet, en parte impulsado por el uso de los dispositivos móviles. </p><p>85 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Se trata de un formato ideal para potenciar nuestro negocio y comunicar de manera eficaz los beneficios de nuestro producto o servicio. En este sentido, hay que tener muy en cuenta a Youtube, ya que se trata de la red social de vídeos más popular del mundo y el segundo buscador en volumen de búsquedas por detrás de Google. El posicionamiento de los vídeos puede ser una forma muy productiva para difundir nuestra marca, obtener visitas y clientes. </p><p>Además, en los resultados de búsqueda Google da cierta importancia a los vídeos, por lo que debemos de aprovechar su potencial para crear contenido y posicionarlo. </p><p>Algunos consejos generales para posicionarnos en el buscador de vídeos son: </p><p>• El título es el elemento más importante del vídeo de cara al usuario y al posicionamiento. Puede contener hasta 70 caracteres y lo ideal es redactarlo con una frase que describa perfectamente el contenido y que contenga la palabra clave por la que queremos posicionarnos. • La descripción también es un elemento importante y se recomiendo escribir un breve resumen del contenido del vídeo. También resulta interesante incluir palabras claves por las que queremos posicionarnos y un enlace que lleve a nuestro sitio web. Si bien estos enlaces son “nofollow”, pueden ayudarnos a atraer visitantes. • Etiquetas: a la hora de etiquetar el vídeo, lo ideal es añadir tags o etiquetas redactadas con palabras clave relacionadas con el mismo. Recomendamos mirar las sugerencias que propone Youtube antes de elegir los tags. Hay que introducir el término por el cual queramos posicionarnos y prestar atención a los resultados que nos sugiere el buscador de Youtube. • Categoría: Debemos seleccionar la categoría que más se adapte al contenido de nuestro vídeo. Recomendamos analizar la categoría de los vídeos que mejor están posicionados para una palabra clave determinada. • Nombre del archivo de vídeo: Al igual que ocurre con las imágenes cuando hacemos SEO en una Web, es conveniente que el nombre del archivo de vídeo que subimos a Youtube sea descriptivo y contenga al menos la palabra clave principal, separando con “-” los diferentes términos. No usar nombres como vídeo1.mpg • Subtítulos: Si bien puede resultar algo más laborioso, transcribir nuestro vídeo y crear subtítulos nos ayudará a que se posicione mejor. Youtube podrá entender mejor el contenido del mismo y además este contenido podrá ser indexado por el buscador Google, por lo que es interesante añadir los subtítulos de forma manual • Imagen en miniatura: La imagen que seleccionemos como miniatura de nuestro vídeo afectará al CTR del mismo. Si conseguimos destacar sobre el resto de vídeos, el nuestro recibirá más clics y mejorará su posicionamiento. • Comentarios y “me gustas”: Cuantos más comentarios y “Me gusta” reciba nuestro vídeo, más posibilidades tendremos de aparecer en las primeras posiciones </p><p>86 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p> para una búsqueda de vídeo. Para mejorar este dato sugerimos embeber el vídeo en nuestro sitio web, ya que de esta forma tendrá una mayor difusión. Podemos conocer las métricas sociales del vídeo con la extensión del navegador Heartbeat. • Configuración del canal: Debemos cuidar la configuración de nuestro canal tanto a nivel de imagen como de contenido. Para ello recomendamos elegir un buen nombre, rellenar la descripción, subir una imagen de cabecera, etc. También es muy positivo enlazar en canal de Youtube con Google+. • Potenciar la popularidad de un vídeo: Youtube da mucha importancia al número de veces que un vídeo se ha visto, al número de enlaces que hay hacia él, a los “me gusta” y a los comentarios. Aunque su algoritmo no sea tan inteligente como el de Google, también da prioridad a que los usuarios consideren útil la información. Por eso tiene sentido animar en el vídeo a que los usuarios comenten y den su opinión. </p><p>87 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>6 Planificación de una campaña SEO </p><p>Finalizamos este tema planteando la forma de abordar un proyecto de optimización SEO de un sitio web. </p><p>Y es que cuando nos enfrentamos a una optimización SEO es muy importante realizar una planificación estratégica, pues es un trabajo que requiere de mucha dedicación en tiempo y de gran esfuerzo. Vamos a daros las pautas para que tengáis claro por dónde empezar y el camino a seguir. </p><p>La planificación SEO la definimos mediante un ciclo de 5 etapas. </p><p>Selección de palabras clave </p><p>Análisis y Análisis de la medición de situación los resultados actual </p><p>Acciones a Objetivos y KPI realizar </p><p>6.1 Selección de palabras clave El primer paso en cualquier estrategia de posicionamiento SEO es la selección de las palabras clave para las que nos queremos posicionar. </p><p>La mejor forma de empezar con la selección de palabras clave es elaborar un listado con las palabras que a priori consideramos relevantes para nuestra web y posteriormente ir ampliándolas y filtrándolas en función de nuestro análisis con las diferentes herramientas para la selección de palabras clave que hemos estudiado. </p><p>Los factores más importantes a considerar en la selección de palabras claves son: </p><p>88 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>• Relevancia con nuestro negocio y con el contenido de nuestra web y de la página que queremos posicionar. </p><p>• Volumen mínimo de búsquedas. Unas decenas o centenares de búsquedas mensuales si tenemos una pequeña página es una buena forma de empezar, pero a medida que el posicionamiento sea mejor, debemos combinar este tipo de palabras con otras con mayor volumen (varios miles mensuales). </p><p>• Número de palabras clave, que dependerá de nuestro sitio web. Recomendamos una o dos palabras clave como mucho por URL, y mejor si están vinculadas entre sí (por ejemplo, una contiene a la otra). </p><p>• Seleccionar palabras claves genéricas y/o long tail en función de nuestros objetivos. </p><p>Las palabras clave que elijamos no tienen por qué ser las definitivas. Pasado un tiempo tendremos que analizar los resultados y tomar decisiones para mantenerlas o cambiarlas por otras. Sin embargo, esto no es SEM (posicionamiento de pago), y cambiar una palabra clave por otra puede suponer esperar semanas para ver los nuevos resultados. </p><p>6.2 Análisis de la situación actual Una vez hemos seleccionado las palabras clave por las cuales nos gustaría posicionarnos, debemos analizar nuestra posición actual para dichas palabras en los buscadores para tenerlas como punto de partida. Posteriormente haremos un análisis de nuestro sitio web y también tendremos que analizar quiénes son nuestros competidores. </p><p>Se trata de un estudio previo que nos ayudarán a conocer la situación de partida del proyecto y ver hasta dónde se puede llegar. </p><p>Dentro de este análisis de la situación debemos ser capaces de identificar los puntos fuertes y débiles y de saber cuáles son los aspectos que debemos mejorar y que nos van a permitir alcanzar los objetivos del proyecto. Para realizar este informe de situación inicial, podemos utilizar un checklist o lista de comprobación en el que se recojan los principales factores que influyen en la popularidad y autoridad de nuestro sitio. </p><p>Para completar el análisis de la situación inicial, también tendremos que investigar la competencia para descubrir su estrategia y qué está haciendo bien o qué no. El objetivo de este proceso es identificar las debilidades y fortalezas de los sitios webs con los que competimos en palabras clave. </p><p>89 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>Finalmente, habrá que analizar el público objetivo. En el caso de disponer ya de una web, es el tráfico que nos llega desde los buscadores, con el objetivo de identificar qué palabras clave son las que nos están generando visitas y conversiones. En este sentido, resulta imprescindible trabajar con herramientas como <a href="/tags/Google_Analytics/" rel="tag">Google Analytics</a> y Google Search Console. </p><p>6.3 Objetivos y KPIs Debemos seleccionar unos objetivos a corto, medio y largo plazo para valorar los resultados de nuestra optimización. Estos objetivos deben ser realistas. Para poder medirlos tenemos que seleccionar cuáles son nuestros KPI. </p><p>Los KPI (Key Performance Indicators) son indicadores principales del rendimiento. Son métricas que nos ayudan a entender cómo lo estamos haciendo en relación a los objetivos que nos hemos marcado. </p><p>Algunos ejemplos KPI que podremos tener en cuenta para valorar nuestra evolución son: </p><p>• Posición de nuestras palabras clave en los buscadores. </p><p>Por ejemplo, si actualmente para una determinada palabra clave ocupamos la posición 70 en el buscador Google podremos plantearnos objetivos para este KPI como: </p><p>Estar entre los 50 primeros pasado 1 mes de trabajo. </p><p>Estar entre los 25 primeros pasados 3 meses de trabajo. </p><p>Estar entre los 10 primeros pasados 5 meses de trabajo. </p><p>• Número de visitas originadas desde los buscadores, con o sin términos de marca (llamamos términos de marca a los que incluyen nuestro propio nombre). </p><p>• Número de enlaces entrantes hacia nuestro sitio, cantidad de sitios web que nos enlazan o calidad de los mismos (por ejemplo, PageRank visual, DA, PA…) </p><p>• Número de visitas originadas desde dichos enlaces. </p><p>• Valor del PageRank/DA/PA de nuestra página de inicio y de las páginas que más visitas reciben. </p><p>• Conversiones realizadas desde visitas orgánicas (la conversión puede ser diferente en función de cada web; una venta en una tienda online, un comentario en un blog, una petición de contacto en un portal corporativo o de generación de leads, etc.) </p><p>90 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>• Número de páginas indexadas. </p><p>6.4 Acciones a realizar Una vez tenemos claro cuál es nuestra situación y nuestros objetivos llega el momento de actuar. Como hemos visto a lo largo del curso, existen numerosos factores diferentes en el posicionamiento SEO y es imposible hacerlo todo a la vez. Es por ello que una de las cosas más importantes es seleccionar adecuadamente cuáles son las acciones más prioritarias. </p><p>Siempre son prioritarios todos los problemas técnicos o penalizaciones relacionadas con el SEO On-Page que puedan estar perjudicando la indexación de nuestra web. </p><p>Cuando nuestro sitio web está correctamente optimizado para que los buscadores puedan indexarlo sin problemas, es el momento ideal para empezar a generar contenido y conseguir enlaces. </p><p>6.5 Análisis y medición de resultados Para analizar los resultados de nuestra campaña SEO utilizaremos un cuadro de mando con la evolución de nuestros KPI. Un cuadro de mando puede ser una hoja Excel o similar donde iremos incorporando los datos, métricas, etc. por periodos semanales o mensuales, así como un resumen de las acciones realizadas. </p><p>Así podremos analizar la evolución de nuestro trabajo y poder presentar informes a nuestros clientes o superiores. También, poder detectar acciones que han supuesto un paso atrás para deshacerlas o corregirlas, ya que cuando se hacen numerosos cambios, es difícil saber qué es lo que ha provocado un cambio brusco, sobre todo si es negativo. </p><p>El SEO cuenta con la particularidad que la medición resulta más compleja que en otras acciones en buscadores como SEM. Hay que tener en cuenta que no se dispone de información completa sobre métricas tan importantes como el número de impresiones, clics o CTR (Clic Through Rate). La herramienta de Google para Webmasters sí que nos ofrece esta información, aunque tiene algunas limitaciones tanto en tiempo como en los datos que suministra. </p><p>La medición en nuestro proyecto SEO es imprescindible. Hay que tener en cuenta que los motores de búsqueda están cambiando constantemente sus algoritmos de búsqueda y las páginas de resultados pueden variar. Además, las palabras clave que se han definido al principio pueden no cumplir nuestros objetivos y ser necesario trabajar con otras. </p><p>Algunos parámetros que debemos de medir en nuestra campaña de posicionamiento son: </p><p>91 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>• Indexación: el número de URLs que un buscador tiene en su índica es un dato importante que nos ayuda a saber qué información de nuestro sitio está almacenando los buscadores. El objetivo es tener el máximo nivel de indexación del sitio, aunque muchas veces resulta difícil calcular el número real de páginas existentes debido a los entornos dinámicos y a los gestores de contenidos. En cualquier caso, lo importante es que esta cifra sea creciente a medida que se vayan creando nuevos contenidos. Para saber este dato podemos ayudarnos del comando “site:nombredemipagina.extension” escribiéndolo en el cuadro de búsqueda, lo que nos devuelve como resultado todas las páginas de nuestro sitio que han sido indexadas por el buscador. Por ejemplo, si hacemos en Google site:elmundo.es nos salen 651.000 resultados. Son las páginas del sitio que tiene indexadas cada buscador. No obstante, el número que se suministra es solo aproximado. La mejor forma de verlo es dando de alta el sitio en las herramientas para Webmasters de cada buscador. </p><p>• Visibilidad: la visibilidad de una web se refiere a la posición que ocupa el sitio para las principales palabras clave. En este sentido, la medición de los resultados debe basarse en una muestra representativa de las palabras clave. Cuando mayor sea nuestro portal, mayor será el número de palabras clave a analizar. Los informes de visibilidad presentan las posiciones obtenidas por las palabras clave objetivo de la campaña SEO en diferentes buscadores y en un determinado momento del tiempo. Este informe de visibilidad lo mejor es realizarlo utilizando algunas de las herramientas comerciales que, de manera automática, registran las posiciones para un determinado dominio. Algunas herramientas para llevar a cabo esta tarea son: Rank Tracker, perteneciente a SEO Power Suite, Raven Tools o SeoMoz Pro. </p><p>La herramienta Google Search Console también permite hacer un seguimiento a los rankings de las palabras que producen impresiones donde se muestra nuestro sitio aunque sólo muestra datos de los últimos 90 días y no muestra el 100% de las palabras clave. </p><p>• Autoridad: la popularidad se mide principalmente por el número de enlaces entrantes hacia un sitio web. Para medir el número de enlaces entrantes podemos utilizar, si somos propietarios del sitio, el panel de Google Search Console donde se nos muestra el número de enlaces que son detectados y los dominios de los que provienen estos. Si no somos los propietarios del sitio o no nos convence esta herramienta, podemos </p><p>92 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p> recurrir a herramientas comerciales como Majestic SEO o AHrefs para obtener información muy completa sobre el perfil de nuestros backlinks. </p><p>Otros indicadores que también nos pueden dar una idea de la popularidad/autoridad de un sitio web son el PageRank, DA y PA. </p><p>Dicho esto, las métricas más importantes para medir la popularidad son: </p><p> o Número total de enlaces que apuntan hacia una web. o Número total de dominios diferentes desde donde existen enlaces que apunten hacia nuestra web. o PageRank/DA/PA de la página. o Otros rankings, como el de Alexa </p><p>• Tráfico web: el tráfico es el principal indicador de rendimiento de una campaña SEO. Un aumento del tráfico web significará que la estrategia de posicionamiento va por buen camino. Para medir el tráfico web podemos usar la herramienta gratuita Google Analytics, que ofrece gran información sobre todas las visitas al sitio. Las principales medidas para analizar nuestra campaña SEO son: </p><p> o Visitas provenientes de fuentes de tráfico orgánicas o Páginas vistas o Visitas provenientes de cada buscador o Tasas de rebote o Promedio de tiempo en el sitio o Páginas de aterrizaje principales </p><p>Un cuadro de mando de nuestra campaña de posicionamiento debería recoger toda esta información. </p><p>No obstante, en función de los resultados que vayamos obteniendo volveremos a comenzar el ciclo de optimización. No hay que olvidar que el SEO es un trabajo continuo y que constantemente hay que adaptarse a los nuevos escenarios y retos. </p><p>6.6 Caso concreto. Medición del ROI en SEO La importancia del SEO para nuestro sitio web radica en que con un trabajo eficiente de posicionamiento orgánico se puede conseguir un aumento considerable de visitas y clientes y mantenerlo a medio/largo plazo llevando a cabo una estrategia adecuada. Diseñar e implementar correctamente una estrategia de posicionamiento orgánico puede resultar muy rentable a largo </p><p>93 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p> plazo puesto que genera costes reducidos y supone un aumento significativo de tráfico proveniente de los buscadores. </p><p>Como en cualquier acción de marketing, también es necesario comprobar si nuestra campaña SEO ha resultado un éxito o fracaso y para ello, podemos recurrir, en otros indicadores, al ROI. El ROI se traduce como el retorno sobre la inversión y mide la rentabilidad de la inversión llevada a cabo. Se trata de un indicador económico-financiero y debemos calcularlo teniendo en cuenta los ingresos que hemos obtenido gracias al uso de esta estrategia y cuáles son los costes totales en los que hemos incurrido. Calculando el ROI podemos obtener el beneficio o pérdida que ha conllevado la ejecución de la campaña SEO y, por lo tanto, si ha resultado exitosa o no. </p><p>Para el cálculo del ROI (expresado en %), podemos recurrir al método general: </p><p>ROI = ((Ingresos – Costes) / Costes) X 100 </p><p>En nuestra estrategia SEO los ingresos serían los beneficios provenientes del tráfico orgánico y los costes, la inversión realizada en el trabajo de posicionamiento. </p><p>En cualquier caso, hay que tener en cuenta que para el cálculo del ROI de una campaña SEO debemos basarnos, no solo en tráfico o posiciones, sino en otros aspectos como son la conversión del tráfico orgánico dependiente este, a su vez, de otros muchos como pueden ser: la usabilidad del sitio web, el diseño web o aspectos puramente empresariales como podrían ser la política de precio o incluso la atención comercial. </p><p>En el apartado de costes, debemos incluir el total pagado por la gestión de la campaña u otros costes como pueda ser post pagados, colaboraciones, gastos de agencia... Para su cálculo, debemos tener en cuenta de qué manera vamos a ejecutar la campaña SEO: si vamos a contratar a una empresa o freelance externo que nos gestione la campaña, si vamos a incorporar a la plantilla a un profesional o si la vamos a llevar nosotros mismos. En función de una u otra opción, el coste será diferente. </p><p>Por otro lado, para la estimación de ingresos debemos basarnos en herramientas de medición que nos proporcionen cierta información cómo el número de visitas provenientes de buscadores, el número de conversiones de estas visitas y el ingreso de cada una de las conversiones, o por lo menos, el ingreso medio por conversión. </p><p>Teniendo en cuenta estas mediciones, podemos calcular el ROI directo de una manera relativamente sencilla, basándonos en los ingresos que se han obtenido por las visitas de tráfico orgánico. </p><p>En el caso de que no dispongamos de estos datos o no se trate de una tienda online, para el cálculo del ROI tendremos que asignar un valor orientativo a cada visita u objetivo de </p><p>94 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p> conversión. Si consideramos que una conversión nos genera unos ingresos de X euros, también podríamos calcular de manera fácil el ROI asociado. </p><p>Ejemplo práctico de cálculo del ROI: </p><p>Imaginemos que tenemos contratada una campaña de SEO a una empresa externa y pagamos al mes 500 € por la gestión de esa campaña. Durante el último mes, las visitas a través de los buscadores a nuestra web han sido 2.000, con lo que podemos asignar un coste por visita orgánica de: 500€/2.000 visitas= 0,25 €/ visita. </p><p>Supongamos que los ingresos por tráfico orgánico durante el último mes han sido de 1000€, bien sea en forma de ventas medibles o en forma de estimación por visita. </p><p>Teniendo estos datos, calculamos el ROI (%) como [(1000€-500€)*100/500€]= 100 (%). </p><p>Un ROI del 100% equivale a decir que, por cada euro invertido, recuperamos ese euro y además generamos un beneficio de otro euro. </p><p>95 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p>7 Comercialización del SEO </p><p>Los motivos por los que las empresas se lanzan al SEO pueden ser diversos, desde la pura competencia con otras empresas hasta la búsqueda de visitas sin tener que pagar una campaña SEM. </p><p>El mayor problema al que os podéis enfrentar al mundo del SEO es la no garantía de que el trabajo dará resultados y de que el trabajo tarda meses en dar sus frutos. Y es que no se puede “asegurar” que un sitio web aparecerá posicionado en determinada posición para una palabra clave concreta en un periodo de tiempo determinado. Por lo tanto, cualquier presupuesto SEO debe elaborarse desde la sinceridad y confianza hacia el potencial cliente. Además, el hecho de que una empresa se lance al SEO no significa que no pueda tener una estrategia complementaria de SEM o simplemente que se vaya a ahorrar dinero porque las visitas ya no sean pagadas. El trabajo de un SEO es complejo y requiere de muchas horas, y esto obviamente tiene un coste para el que contrata el servicio. </p><p>A la hora de elaborar un presupuesto, el estado de la web de vuestro potencial cliente es clave, como también lo es la competencia de su sector. Como se trata de un mercado libre, las opciones de comercialización del SEO son muy diversas: </p><p>• En base al número de palabras clave que se vayan a trabajar • En base a un número fijo de horas que se vayan a dedicar al mes • En base a si incluye acciones On-page o también acciones off-page (que pueden a su vez incluir acciones de pago como la compra de reseñas o la redacción de contenidos por un tercero). • En base a si se trata de un estudio inicial, una auditoría de situación o un trabajo efectivo sobre una web ya existente • Si se incluye o no la formación del cliente • En base a la mejora de los resultados que se consigan </p><p>Nuestro consejo es abordar un presupuesto SEO teniendo en cuenta las horas que se pueden dedicar a un proyecto y la duración en meses del mismo. Al fin y al cabo, si os dedicáis profesionalmente a ello, esto debe quedar reflejado en unos honorarios fijos por hora. Habrá proyectos en los que se requieran más horas que en otros (dependerá de los factores mencionados) pero en término medio debéis de estimar vuestro trabajo de esta forma. Os vamos a dar sugerencias en base a tres posibles casos. </p><p>7.1 Consultoría o auditoría de situación En este tipo de proyecto debéis hacer un estudio de situación actual o bien una planificación de las acciones que se deberían llevar a cabo, siendo estas acciones realizadas por el </p><p>96 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p><p> propietario del sitio web. Valorar las horas que os lleva hacer este estudio (10, 15, 20…) y asignarle un valor económico fijo. El precio/hora en cuestiones tecnológicas suele estar entre 20€ y 60€, dependiendo de vuestra experiencia o “caché”. </p><p>7.2 Optimización inicial del sitio La primera fase de un proyecto SEO suele ser la optimización del sitio, es decir, la que se centra en los factores On-page. De poco servirá lanzarnos a una estrategia de Linkbuilding si el sitio web no está bien optimizado a nivel interno. </p><p>En este sentido, podéis analizar el portal en cuestión y determinar el periodo de tiempo necesario para llevar a cabo este trabajo (1 mes, 2 meses, 3 meses…) y el número de horas que vais a dedicar, que en definitiva se traducirá en un coste. No es lo mismo actualizar un pequeño portal corporativo que una tienda online con decenas o cientos de productos. </p><p>Una vez que el sitio web está bien optimizado, se puede ofrecer al cliente pasar a la siguiente fase. </p><p>7.3 Trabajo continuo sobre el sitio Si el sitio web ya cuenta con un posicionamiento bueno o a nivel On-page no hay mucho más que se pueda hacer, la siguiente fase que podéis abordar es la que incluye elementos off- page. Linkbuilding, Linkbaiting, optimización de medios y redes sociales, seo local…Y, por supuesto, el crecimiento en el contenido del propio sitio, por ejemplo, mediante el trabajo con un blog (ya sea el propio cliente el que escriba en él y vosotros lo revisáis y optimizáis, se contrate a una empresa que genere contenidos o vosotros mismos los escribáis). Este trabajo es una labor continua que no tiene por qué tener una fecha de caducidad y que debe ir dando resultados en forma de incremento de las visitas orgánicas y referidas, de la base de seguidores en los medios sociales y de la mejora en el posicionamiento de algunas o muchas de las palabras clave. </p><p>Como los resultados no suelen ser inmediatos, podéis plantear un mínimo número de meses de trabajo o, simplemente, dejar claro que mientras el cliente pague, se le va a hacer un trabajo y no establecer un compromiso concreto, trabajando por ejemplo por periodos mensuales por un importe fijo y determinando el alcance de vuestro trabajo y los posibles extras (por ejemplo, por la generación de contenidos por parte de un tercero, acciones de “guest blogging” o incluso posibles patrocinios). Por ello es importante contar con un buen cuadro de mando y mantener informado al cliente (con mayor o menor nivel de detalle) de las acciones que se van realizando, enviándole informes mensuales y teniendo con él reuniones periódicas para ir analizando todo. </p><p>97 ______Fundación UNED, Curso de Marketing Online 4ª Ed. – Marzo 2016 www.cursosmarketingonlinefuned.com Página</p> </div> </article> </div> </div> </div> <script type="text/javascript" async crossorigin="anonymous" src="https://pagead2.googlesyndication.com/pagead/js/adsbygoogle.js?client=ca-pub-8519364510543070"></script> <script src="https://cdnjs.cloudflare.com/ajax/libs/jquery/3.6.1/jquery.min.js" crossorigin="anonymous" referrerpolicy="no-referrer"></script> <script> var docId = 'd4526ba1a6dbb9338c88e6ad1c0012f1'; var endPage = 1; var totalPage = 97; var pfLoading = false; window.addEventListener('scroll', function () { if (pfLoading) return; var $now = $('.article-imgview .pf').eq(endPage - 1); if (document.documentElement.scrollTop + $(window).height() > $now.offset().top) { pfLoading = true; endPage++; if (endPage > totalPage) return; var imgEle = new Image(); var imgsrc = "//data.docslib.org/img/d4526ba1a6dbb9338c88e6ad1c0012f1-" + endPage + (endPage > 3 ? ".jpg" : ".webp"); imgEle.src = imgsrc; var $imgLoad = $('<div class="pf" id="pf' + endPage + '"><img src="/loading.gif"></div>'); $('.article-imgview').append($imgLoad); imgEle.addEventListener('load', function () { $imgLoad.find('img').attr('src', imgsrc); pfLoading = false }); if (endPage < 7) { adcall('pf' + endPage); } } }, { passive: true }); </script> <script> var sc_project = 11552861; var sc_invisible = 1; var sc_security = "b956b151"; </script> <script src="https://www.statcounter.com/counter/counter.js" async></script> </html>