Estar en la 1° página de Google no es como cazar a un animal mitológico, no es algo que se logre con una fórmula SEO mágica para hechizar a Googlebot.

Se trata de un tema científico y debemos abordarlo de esa forma, es decir con experimentación y análisis de los resultados.

Según Google ninguna persona tiene influencia directa sobre el proceso de búsqueda y presentación de resultados en las Serps. Los procesos (algoritmos) usados por el buscador son secretos, así que no existe ninguna guía oficial de “cómo agradar a google”  todos los procedimientos SEO son un resultado de el “reverse engineering”…

Las técnicas SEO (en español: Optimización para motores de búsqueda) son acciones destinadas a los buscadores,  entendiendo la forma en que hacen su trabajo, hablando el lenguaje de los mismos y mostrando las señales que ellos están programados para ver cuando se trata de posicionar en las SERP’S (en español: páginas de resultados de búsqueda).

Directo al tema:

De principio toda estrategia SEO debe partir de tres categorías básicas.

  1. Palabras clave
  2. SEO técnico
  3. Backlinks

Claro, esta estrategia no sirve de nada sin el principal ingrediente que es tu contenido, según Palabras de Google en su Guía de optimización en buscadores (SEO) para principiantes

Debes tener presentes a tus usuarios tanto al diseñar tu sitio web como al optimizarlo ya que, en ambos casos, tu objetivo debe ser mejorar su experiencia en tu sitio web. Algunos de estos usuarios son buscadores que ayudan a que otros usuarios descubran tu contenido. El SEO consiste precisamente en facilitar que estos buscadores entiendan y presenten el contenido.

Centro de la búsqueda de google

Así que en realidad no se trata de una receta que debes seguir al punto de la letra, más bien se trata de las acciones tácticas que acompañan tu plan estratégico, en el que el centro debe ser siempre: aportar “Valor” usando contenido de calidad y relevante a tu audiencia.

Veamos estas categorías una por una

1 Palabras Clave

Entiende las palabras clave como el lazo que une tu sitio web con las búsquedas que realizan los usuarios que quieres alcanzar, si las palabras son las correctas y están correctamente implementadas habrá un nexo entre tus páginas y los millones de usuarios que pueden estar buscando el contenido que ofrece tu publicación.

Las palabras clave son uno de los peldaños en la escalera, las que enfocan la atención del buscador en tus contenidos y digamos lo desentierra de entre un mar de páginas web que pueden estar tratando el mismo tema.

Las palabras clave pueden y de hecho deben estar por todas partes de tus contenidos, en el desarrollo, en los títulos, como meta tags en el código html, en los extractos, incluso en el texto de los botones.

Pero ojo, este contenido quizá sea muy bueno (y la verdad así debe serlo para tener una ventaja al competir en tu nicho) aún así también es necesario aplicar con mucho cuidado técnicas de redacción como el kw density (el motor de búsqueda utiliza IA para analizar la web y es experto descifrando patrones no naturales en nuestros contenidos ), no vamos a engañarlo repitiendo la misma palabra con alguna “fórmula”.

Así que se trata de redactar tu contenido de forma que sea un valioso aporte para tus lectores y a la vez entendible para los motores de búsqueda. 

Nuestras palabras claves ideales deben responder las preguntas del usuario, así que imaginemos como el usuario haría determinada búsqueda y establezcamos palabras claves contestando las mismas.

Para ello existen herramientas y técnicas muy útiles para conocer datos sobre los términos que está usando el usuario en las búsquedas,  Ubersuggest es un muy buen ejemplo de estas herramientas.

2. SEO Técnico

Empezando con aclarar lo siguiente: cuando introducimos un término de búsqueda en la barra del navegador, el motor de búsqueda no se lanza a buscar en ese inmenso océano que es la World Wide Web ( www = internet ) con más de un billón de páginas web activas.

En realidad el motor de búsqueda usa un sistema bien conocido por cualquier lector llamado “índice” el cual ya fue formado de antemano mediante un proceso llamado “crawling”.

Durante el crawling el motor de búsqueda envía a sus robots a saltar de link en link por toda la internet analizando el contenido disponible en línea y tal cual se tratara de una biblioteca lo añade a su índice, es ahí donde luego se realiza la búsqueda del usuario.

Luego mediante su algoritmo, compone y presenta una página de resultados de búsqueda ( SERP ) por esto hablamos de INDEXAR que se traduce en la acción de añadir nuestro sitio web al índice de búsquedas; Este inclusive guarda copias de las páginas web que indexa como en un archivo de respaldo (Caché).

Pero recordemos que aunque dotados de superpoderes estos sistemas no dejan de ser máquinas que reciben instrucciones y debemos indicarles cómo indexar nuestro contenido correctamente.

Para lo que podemos “hablarles” en su propio lenguaje, mostrando las señales que están programados para procesar.

De los elementos que intervienen en este proceso los más relevantes a este nivel de aprendizaje son los siguientes:

  • Sitemap:

El sitemap es la estructura fundamental usada por el motor de búsquedas para entender la organización de tu sitio web, aunque no es algo obligatorio pero si nuestro sitio tiene cierto tamaño y es actualizado con frecuencia, un sitemap será estupendo para ayudar al motor de búsqueda a indexar tu sitio apropiadamente y llevar el control de sus contenidos y actualizaciones.

Cito desde el centro de asistencia para webmasters en Google:  ”tu sitio web se beneficiará de tener un sitemap, y en ningún caso se verá perjudicado”

El sitemap como ya debemos imaginarlo es un mapa de los contenidos de nuestro sitio web y de sus conexiones entre sí.

Yendo un poco más al detalle vamos a revisar este proceso técnico para comprender cómo trabaja todo esto…

El crawling se hace siguiendo (o saltando) de link en link a través de todo el internet. Al momento de encontrar nuestro contenido quizá no sea procesado todo en un solo intento, o si nuestro sitio es nuevo y con pocos links apuntando hacia él también demorara un poco en indexar correctamente, por esto es súper importante informar de antemano sobre nuestro sitio y sus contenidos.

Y para esto un sitemap es el medio ideal.

Si nuestro sitio por ejemplo: contiene páginas o contenidos que no están linkeados en la navegación principal y no hay enlaces exteriores que apunten a él, incluirlo en un sitemap sería muy conveniente porque de otra manera estaría “escondido” aunque este sea de acceso público.

El sitemap puede contener también metadata importante como información de copyright para imágenes y videos.

El sitemap también sirve para indicar al motor de búsqueda la forma en que queremos indexar la información dentro de nuestro sitio web.

Por ejemplo si tenemos un contenido que es fijo como una página informativa sobre nuestro negocio y otros contenidos que se actualizan regularmente, como artículos de blog, podemos indicar en nuestro sitemap qué contenidos tienen prioridad sobre otros, cuales son fijos y con verlos una vez basta y cuales vale la pena volver a procesar para re-indexar, así no se desperdicia el presupuesto de crawling y no se impone una carga innecesaria sobre nuestro servidor.

Está confeccionado con un lenguaje de marcado llamado XML y luce parecido a esto:

IMAGEN AQUI

Podría ser preparado “a mano” por nosotros mismos, pero podemos encontrar servicios “generadores de sitemap” algunos de ellos con planes de uso gratuitos como: xml-sitemaps.com

  • Structured Data Schema

Seguramente ya has visto este tipo de resultados al hacer una búsqueda:

IMAGEN AQUI

Y te preguntas cómo tu web puede mostrar su info de esa forma.

Estos datos obedecen a etiquetas en el SDS como esta llamada “recipe” y cumple la función de informar al motor de búsqueda que se trata de una receta de cocina y pueda mostrarla según la estructura ya preparada como formato para recetas, es decir con muchos detalles agregados como ingredientes, tiempos de preparación etc; O puede agruparla en una categoria junto con otros resultados provenientes de distintos sites. 

En un esfuerzo por normalizar la diversidad de los temas que tratan las páginas web y mostrar serps más relevantes y útiles se implementa este Structured Data Schema que en lo más básico se trata de un fragmento de código usado para comunicar al motor de búsqueda de qué trata tu web, y / o un contenido específico dentro de tu web y presentarlo directamente en la SERP.

En definitiva su objetivo es ayudar en la organización de la data y puede hacer algo super útil por ejemplo para una tienda mostrando artículos en venta en el carrousel de la serp, o incluir tu menú del día en la serp si se trata de un restaurant, o agrupar tus artículos a la venta, siguiendo algún criterio como el precio, el color o la geolocalización del usuario que hace la búsqueda, en un carrusel de artículos al mismo tiempo que otras tiendas y asi pueden compararse.

Esto se hace con un conjunto de etiquetas estándar con las que describir tus contenidos, de esta forma se asegura la compatibilidad entre los diversos lenguajes y sistemas que conforman el universo web.

  • Archivo Robots

EL archivo robots.txt contiene instrucciones directas para los bots que rastrean las páginas, en este archivo podemos específicamente permitir, denegar y regular el tráfico de los bots en el contenido de nuestro website de acuerdo a nuestros intereses.

Por ejemplo, podríamos evitar que información privada o sensible sea rastreada y luego añadida al índice de búsqueda, o hacer todo el directorio de imágenes en nuestra web quede fuera del rastreo.

También podríamos por ejemplo bloquear el acceso a recursos irrelevantes como scripts o reglas de estilo.

  • Meta Tags: “Keywords, Title, Content”

Hubo un tiempo en que Google confiaba un montón de la información suministrada directamente por el creador de la página, por ejemplo era posible posicionar una página de acuerdo a sus metatag “keywords”, ya eso no es posible pero aún se debate el usarlas o no, algo bastante claro es que muchos otros parámetros que juzgan nuestra web tienen más peso en el algoritmo de posicionamiento.

De hecho son más de 200 las señales evaluadas al momento de posicionar una página en la Serp.

Las que sí tienen un peso relevante son las metatags “Title” y “Content”, tanto así que el snippet en el resultado en la Serp podría estar constituido primariamente por ellas.

Te conviene que estas estén descritas de la forma más concisa posible ya que pueden tener una incidencia directa con la cantidad y calidad de tráfico enviado a tu página.

3. Y por último pero no por menos el link building

Un poco de historia: resulta que el algoritmo usado en los principios de Google trataba justamente de analizar la relevancia, importancia y autoridad de un sitio web específico en un tema específico, por los links que apuntaban a él.

Esto era una referencia de lo que ahora llamamos “prueba social” ya que se infiere que si otro sitio apunta mediante un link al tuyo en un tema específico, es debido a que tu contenido es importante y relevante en ese tema y le otorga una autoridad.

Ese método no ha cambiado solo se ha vuelto más sofisticado, digamos ahora no solo se  toma en cuenta la cantidad de links que apuntan a tu página sino también la calidad de los mismos.

Por ejemplo muchos diseñadores web suelen poner “footer links” en las páginas de clientes creando un acceso directo a su propia página o portafolio, pero esto en realidad podría no ser positivo ya que difícilmente la página de una pastelería y que trata temas como recetas para cocinar donuts de chocolate, tenga alguna autoridad en el tema del diseño web.

Este ejemplo para ilustrar un poco el criterio de “autoridad”

Conclusión

Entonces concluimos que hay dos grandes temas en esto del SEO:

  1. Que el motor de búsqueda pueda entender con detalle de qué trata tu contenido.
  2. Que tu contenido sea de calidad y relevante a la búsqueda del usuario.

Todos estos procedimientos deben tomar en cuenta al usuario como centro de los mismos, el objetivo es siempre enriquecer la experiencia del usuario ofreciendo contenidos de calidad y relevantes a sus búsquedas.

Como dice Google: “hagamos contenidos para los usuarios y no para los motores de búsqueda”

Así que ya vimos a grandes rasgos de qué trata el SEO, en los próximos artículos veremos cómo hacer buen SEO.