Cabo

Enviado por Programa Chuletas y clasificado en Informática y Telecomunicaciones

Escrito el en español con un tamaño de 32,65 KB



¿Qué es el SEO? Definición de SEO

La más simple y estricta definición de la figura o técnica
SEO podría definirse como Optimización de los motores de búsqueda.
Pero por supuesto, no se trata de optimizar dichos motores de búsquedas (de eso se encarga Google), sino las búsquedas como tal de las páginas web que nos interesen.
Por lo tanto, el SEO son todas y cada una de las técnicas que se llevan a cabo para optimizar las páginas web con el objetivo de alcanzar la mayor visibilidad orgánica posible, es decir, las mejores posiciones.
Pero profundicemos más.
Si nuestra web trata de zapatillas deportivas, por ejemplo, no tendría ningún sentido que apareciera esta en las búsquedas de naranjas de Valencia.
Por lo tanto, y definitivamente, el SEO son todas las técnicas que se llevan a cabo en una web para alcanzar las más altas posiciones en los buscadores por los términos de búsqueda que interesen al negocio intrínseco de esa web.
Muy bien, ya sabemos a rasgos generales qué es el SEO o posicionamiento web. Ahora, y antes de explicarte cuáles son todas las etapas que se deben llevar a cabo en este campo, vamos a ver cómo y cuándo nacíó el SEO.

¿Cómo y cuándo nacíó el SEO?


Google, fue fundada el 4 de Septiembre de 1998 por el estadounidense Larry Page (apellido que adopto el famoso algoritmo de Google Pagerank) y el Ruso Serguéi Brin. Por aquellos entonces, no existen los buscadores tal y como lo conocemos, sino que había una serie de directorios como Yahoo, Altavista, Excite y otros muchos más.
La manera en la que organizaban la información eran muy diferentes a las de ahora.
En la era digital pre-Google los motores de búsqueda mostraban los resultados de forma alfabética, por lo tanto, el SEO (si es que se le puede llamar así…) consistía simplemente en comprar dominios “alfabéticamente superiores”.
Por ejemplo:
Si querías posicionar tu web por la palabra clave “Abogados”, simplemente tenías que comprar el dominio “abogados-aaa.Com”. Y así sucesivamente.
Esto es sólo un ejemplo para que entiendas la simplicidad de lo que antiguamente se llamaba SEO.
En mi opinión, el SEO no nacíó ahí, al menos tal y como lo conocemos hoy día.
El SEO nacíó cuando los fundadores de Google entendieron que los motores de búsqueda, por entonces actuales, no resolvían las necesidades de los, por entonces también, usuarios de la red.
Pero la cosa no quedó ahí. Ya que, no sólo se trataba de mostrar la información de sitios web en listas debidamente segmentadas por términos de búsqueda no basados en simples clasificaciones alfabéticas, no.
Había una gran controversia en torno a qué web se le daba una mayor o menor visibilidad. Entonces fue cuando nacíó el Pagerank.
El Pagerank es una parte del algoritmo de Google que determina la “autoridad” de cada una de las webs, es decir, su relevancia y popularidad, basadas en el número total de enlaces externos que recibían las mismas.
Por supuesto, el algoritmo del Pagerank fue evolucionando y Google también.
Y fue ahí, en mi humilde opinión, cuando realmente nacíó el SEO, tanto como figura técnica como la del profesional que lleva a cabo dichas técnicas.

La Evolución del SEO


Como pasa con casi todo en esta vida, el SEO evoluciónó, y el motor de esa evolución fue, como ya habrás supuesto, Google.
El algoritmo de Google crecíó, mejoró, aumentó su complejidad, y con ello forzó a los profesionales SEO a aumentar también sus conocimientos en técnicas, tanto recomendadas por la misma compañía para sitios web, como experimentales e innovadoras en el sector.
Porque el SEO no sólo trata de llevar a cabo tareas que Google dicta para los sitios web (buenas praxis), sino que también trata de innovar, de experimentar, y de llevar al algoritmo de Google al límite, buscando cualquier resquicio por el que colarse.
La Evolución de Pagerank
Uno de los mayores valores de la compañía Google es el Pagerank, que para ellos es como la popular, pero secreta, fórmula de la coca-cola.
Pero a diferencia de la fórmula de la coca-cola, que supuestamente sigue intacta desde hace mucho tiempo y no ha cambiado en nada, la fórmula del Pagerank ha sido sometida a múltiples cambios.
Como he comentado en el apartado anterior, al principio, el Pagerank se basada en catalogar a las webs conforme al número de enlaces entrantes o Backlinks que recibía. Pero claro, esto era fácil de manipular, y los chicos de Google se dieron cuenta.
Para impedir esta manipulación de los algoritmos tan accesible y descarada, Google modifico el Pagerank para que no sólo tuviera en cuenta la cantidad de enlaces externos que recibía una web, sino también la calidad de esos enlaces.
Es decir, a partir de ese momento, tenía más valor un Backlinks de una web con una alta autoridad, que con una baja.
Con el tiempo ha ido evolucionado el Pagerank en muchos sentidos:
La IP del dominio que enlaza, la temática del dominio que enlaza, el anchor text o texto ancla del dominio que enlaza, la edad del dominio que enlaza, el número total de enlaces externos del dominio que enlaza, y una infinidad de factores más han ido sumándose para hacer más compleja y menos manipulable la fórmula del Pagerank.
Pero no sólo ha mejorado el algoritmo de Google en torno al Pagerank. Ámbitos como el tráfico web, la UX (experiencia de usuario)
, la WPO y otros tantos, se han convertido en parte muy importante de dicho algoritmo, y por lo tanto del SEO.

► Evolución del Algoritmo de Google

Poco a poco, Google fue incluyendo factores que ayudaron a evitar una fácil manipulación del algoritmo.
NOTA: Hay que decir que la exposición de estos cambios evolutivos sufridos en el algoritmo de Google no están mostrados cronológicamente.
· IA
Uno de estos aspectos principales fue la IA o arquitectura de la información. La necesidad de que las webs fueran cada vez más y más complejas y recopilarán un mayor volumen de información, hizo que Google se centrará en premiar a los sitios que mejor organizada tuviera dicha información.
Esto tenía un fin bastante claro: dar visibilidad a las webs que fueran más fáciles de usar y entender por parte de los usuarios.
Por lo tanto, empezaron a ganar posiciones los sitios que estaban mejor organizados y tenían una arquitectura de la información bien estructurada.
· Tráfico Global
El tráfico Global también jugó un papel importante a la hora de cambiar el algoritmo. Una web con un alto volumen de tráfico empezaba a tener más posibilidades de estar mejor posicionada en Google que otra con un volumen de tráfico más bajo.
· CTR
El CTR o el Click Through Rate es el número total de clics que recibe un enlace en comparación con el número total de impresiones (las veces que se muestra en las páginas de resultado de búsqueda).
Google entendíó que mientras mayor fuera el número de clic de un dominio comparado con las impresiones, mayor utilidad tendría esta web para el navegante conforme a otras y conforme al término de búsqueda utilizado por el usuario.
Por lo tanto, este fue otro de los factores que Google incluyó en su algoritmo.
· Link Juice
El Link Juice, o bien traducida, trama de enlaces internos, es la capacidad que tiene una web de repartir “autoridad” entre sus URLs a través de los enlaces internos.
Google entendíó que también es muy importante la relevancia que el desarrollador o empresa de la web le da cada una de las URLs de la web.
Dicho de otro modo, Google entendíó que, si enlazamos internamente un mayor número de veces a una URL que a otra de forma interna, esta primera tendrá que tener más relevancia.
El link Juice funciona igual que Link Building, es decir, existe una ecuación para denominar el valor o autoridad de cada una de las URLs de una web a través de sus enlaces internos.
En mi opinión, estos son los factores que más han evolucionado a lo largo de los años en el sector SEO. Por supuesto no están todos, pero si los más importantes.

Las técnicas SEO profesionales de hoy día


Ahora veamos cuáles son técnicas más importantes que se usan en SEO o Posicionamiento Web a nivel profesional hoy día.
► Link Building
Cómo ya he comentado en varias ocasiones, el link building ha sido, es y será uno de los factores más importantes del posicionamiento web.
► Keyword Research
Aunque profesional y personalmente, yo lo llevo a otro nivel, realizando un estudio de mercado orgánico, el keyword research es una de las principales técnicas de SEO.
Y ya no sólo es una de las más importantes, sino que se encuentra en la primera etapa de cualquier proyecto SEO.
Esta técnica consiste en peinar el mercado orgánico en busca de los términos de búsqueda adecuados para el modelo de negocio y su volumen mensual de búsqueda. Por otro lado se debe detectar la dificultad de posicionamiento de cada grupo de palabras clave y ordenar todos estos datos debidamente para posteriormente implementar estos términos de búsqueda en la web a través de la generación de URLs y contenidos.
► IA (Arquitectura de la información)
Como también hemos comentado antes, generar una arquitectura de la información coherente y adecuada es de vital importancia.
Una vez desarrollado el Keyword Research podemos lanzarlos a crear la IA a partir de los datos recopilados en el anterior estudio de palabras clave.
► Manipulación de densidades
Las densidades de palabras clave es una ecuación que se realiza sobre el texto total de una URL.
Ejemplo:
Tenemos una URL y la palabra clave principal es “zapatillas deportivas”.
La ecuación consiste en calcular el número total de veces que se repite la palabra clave “zapatillas deportivas” en comparación con el número total de palabras que hay en el texto.
La ecuación es la siguiente:
(NK *100) / NP = Densidad NK
(Número de veces que se repite la palabra clave * 100) / Número total de palabras que contiene el texto) = Densidad de Palabra clave
El deber de un SEO es tener controladas las densidades entre un 0,3 % y un 1%. *Esto puede variar en varias ocasiones dependiendo de varios factores.
► Control del SEO negativo
El SEO negativo es aquel que se desarrolla por terceros con fines destructivos o por la propia empresa o desarrollador de la web con malas Praxis.
La técnica más usada es el Link Building negativo, que no es otra cosa que la creación de enlaces externos perjudiciales para la web.
La técnica de control consiste en estar constantemente informados sobre el perfil de enlaces externos de la web y detectar posibles campañas de SEO negativo. Una vez detectadas se debe de restaurar el perfil de enlaces a la configuración anterior mediante los llamados disavows.
Mejora de UX o Experiencia de Usuario
Está más que comprobado que Google tiene una obsesión: sus usuarios. Google entiende que debe dar relevancia y visibilidad en sus páginas de búsqueda a las Webs o URLs que aporten valor al usuario.
Todo esto implica que métricas como el tiempo en página, las páginas por sesíón y el porcentaje de rebotes deben de tratarse con especial atención.
La técnica consiste en analizar los posibles elementos que estén dificultando una navegación fluida e intuitiva.
Por otro lado, la relación estrecha entre término de búsqueda y contenido es de vital importancia, ya que aparecer en los buscadores por palabras clave poco o nada relacionadas con el contenido de la web evitará conseguir buenas posiciones.
.
¿Qué es el crawleo o crawling llevado a cabo por parte de los motores de búsqueda?

El término 'crawling' o 'crawleo' hace referencia al método o procedimiento utilizado por los motores de búsqueda de Google para clasificar e indexar todas y cada una de las páginas web existentes en la red.
Esta indexación es fundamental para la visibilidad y el posicionamiento orgánico (SEO) de nuestra página, ya que es lo que va a determinar qué lugar ocupará en la página de resultados tras las búsquedas de los usuarios.
Si ya conoces el concepto 'crawleo' o 'crawling' y quieres aprender más sobre SEO, te recomendamos la lectura de las guías Los secretos del SEO y Cómo aplicar SEO en tu estrategia de marketing online.

¿Por qué se llama 'crawling' o 'crawleo'?



Ahora que ya sabes qué es el crawling o crawleo, es posible que tengas curiosidad por el origen de la palabra desde un punto de vista etimológico. El método de Google y otros buscadores para otorgar un puesto a nuestra página tras las búsquedas de los usuarios (es decir, su nivel de posicionamiento orgánico o SEO) proviene de la palabra 'crawler', que es una de la varias formas utilizadas para nombrar a los robots de búsqueda, como por ejemplo arañas, spiders o trepadores.

¿Qué son los crawlers?


Los crawlers, que pueden traducirse literalmente como 'arrastradores', son pequeños programas que viajan por la red, enviados por Google (el resto de buscadores utilizan herramientas similares) con una hoja de ruta muy clara:
1. Encontrar todas las páginas web existentes.
2. Analizarlas en función de una fórmula o algoritmo.
3. Asignarles a cada una de ellas una posición determinada en la SERP.
Hablamos de crawlers en plural y no de crawler en singular porque existen distintos tipos de rastreadores y cada uno de ellos se encarga de analizar y puntuar una información diferente. Uno de ellos es el crawl budget, el cual asigna un tiempo específico a cada link, y que ya analizamos con detalle en un post anterior de nuestro diccionario de marketing.
Los parámetros del crawling: el gran secreto de Google
En contra de lo que puedan decir supuestos gurús del SEO y de los artículos publicados por el propio Google, como este titulado How Search Works, donde se explican algunas cuestiones generales (de forma muy atractiva y visual) sobre los criterios de Google para posicionar las páginas tras las búsquedas de los usuarios, la fórmula exacta del algoritmo no se conoce.
Sí se sabe que existen más de 200 variables, entre las que se encuentran:
 El valor de los contenidos, en calidad y actualizaciones.  La accesibilidad y fluidez en la navegación de la página.  La estructura de la página.  La facilidad de acceso a la web por parte de los rastreadores.  La calidad técnica de la página, por ejemplo, su velocidad de carga o el nivel de optimización para todo tipo de dispositivos, en especial los móviles (smartphones y tablets).  La inexistencia de errores.
Al mismo tiempo que son de conocimiento público los aspectos más valorados por Google en cada actualización de su algoritmo, también se sabe que otros han perdido fuerza, como la inclusión directa de las keywords en los encabezados de html (metatags).
El conocimiento y estudio de estos parámetros a considerar en el SEO hace que el concepto de crawling no sea, ni mucho menos, completamente abstracto e ininteligible. Pero su fórmula exacta, es decir, la ponderación concreta de cada una de las variables que son tenidas en cuenta por los robots, sigue siendo el gran secreto de Google, celosamente guardado por los responsables de posiblemente la compañía más importante del mundo del ámbito de Internet.
Es importante subrayar que el crawling, es decir, el método para determinar el orden de la página tras los resultados de búsqueda, está en constante crecimiento, perfeccionamiento y adecuación a las nuevas tecnologías y formas de uso de Internet. Estas cada vez se decantan más por la navegación en dispositivos móviles, las búsquedas por voz y la importancia de la localización del usuario en el momento de buscar algo en la red.

1 ¿Qué es el SEO? Definición de SEO 2 ¿Cómo y cuándo nacíó el SEO? 3 La Evolución del SEO 3.1 La Evolución de Pagerank 3.2 Evolución del Algoritmo de Google 4 Las técnicas SEO profesionales de hoy día 4.1 Link Building 4.2 Keyword Research 4.3 IA (Arquitectura de la información) 4.4 Manipulación de densidades 4.5 Control del SEO negativo 5 Mejora de UX o Experiencia de Usuario 5.1 Related Posts:

¿Qué es el SEO? Definición de SEO


La más simple y estricta definición de la figura o técnica SEO podría definirse como Optimización de los motores de búsqueda. Pero por supuesto, no se trata de optimizar dichos motores de búsquedas (de eso se encarga Google), sino las búsquedas como tal de las páginas web que nos interesen.
Por lo tanto, el SEO son todas y cada una de las técnicas que se llevan a cabo para optimizar las páginas web con el objetivo de alcanzar la mayor visibilidad orgánica posible, es decir, las mejores posiciones.
Pero profundicemos más.
Si nuestra web trata de zapatillas deportivas, por ejemplo, no tendría ningún sentido que apareciera esta en las búsquedas de naranjas de Valencia.
Por lo tanto, y definitivamente, el SEO son todas las técnicas que se llevan a cabo en una web para alcanzar las más altas posiciones en los buscadores por los términos de búsqueda que interesen al negocio intrínseco de esa web.
Muy bien, ya sabemos a rasgos generales qué es el SEO o posicionamiento web. Ahora, y antes de explicarte cuáles son todas las etapas que se deben llevar a cabo en este campo, vamos a ver cómo y cuándo nacíó el SEO.

¿Cómo y cuándo nacíó el SEO?


Google, fue fundada el 4 de Septiembre de 1998 por el estadounidense Larry Page (apellido que adopto el famoso algoritmo de Google Pagerank) y el Ruso Serguéi Brin.
Por aquellos entonces, no existen los buscadores tal y como lo conocemos, sino que había una serie de directorios como Yahoo, Altavista, Excite y otros muchos más.
La manera en la que organizaban la información eran muy diferentes a las de ahora.
En la era digital pre-Google los motores de búsqueda mostraban los resultados de forma alfabética, por lo tanto, el SEO (si es que se le puede llamar así…) consistía simplemente en comprar dominios “alfabéticamente superiores”.
Por ejemplo:
Si querías posicionar tu web por la palabra clave “Abogados”, simplemente tenías que comprar el dominio “abogados-aaa.Com”. Y así sucesivamente.
Esto es sólo un ejemplo para que entiendas la simplicidad de lo que antiguamente se llamaba SEO.
En mi opinión, el SEO no nacíó ahí, al menos tal y como lo conocemos hoy día.
El SEO nacíó cuando los fundadores de Google entendieron que los motores de búsqueda, por entonces actuales, no resolvían las necesidades de los, por entonces también, usuarios de la red.
Pero la cosa no quedó ahí. Ya que, no sólo se trataba de mostrar la información de sitios web en listas debidamente segmentadas por términos de búsqueda no basados en simples clasificaciones alfabéticas, no.
Había una gran controversia en torno a qué web se le daba una mayor o menor visibilidad. Entonces fue cuando nacíó el Pagerank.
El Pagerank es una parte del algoritmo de Google que determina la “autoridad” de cada una de las webs, es decir, su relevancia y popularidad, basadas en el número total de enlaces externos que recibían las mismas.
Por supuesto, el algoritmo del Pagerank fue evolucionando y Google también.
Y fue ahí, en mi humilde opinión, cuando realmente nacíó el SEO, tanto como figura técnica como la del profesional que lleva a cabo dichas técnicas.

La Evolución del SEO


Como pasa con casi todo en esta vida, el SEO evoluciónó, y el motor de esa evolución fue, como ya habrás supuesto, Google.
El algoritmo de Google crecíó, mejoró, aumentó su complejidad, y con ello forzó a los profesionales SEO a aumentar también sus conocimientos en técnicas, tanto recomendadas por la misma compañía para sitios web, como experimentales e innovadoras en el sector.
Porque el SEO no sólo trata de llevar a cabo tareas que Google dicta para los sitios web (buenas praxis), sino que también trata de innovar, de experimentar, y de llevar al algoritmo de Google al límite, buscando cualquier resquicio por el que colarse.
La Evolución de Pagerank
Uno de los mayores valores de la compañía Google es el Pagerank, que para ellos es como la popular, pero secreta, fórmula de la coca-cola.
Pero a diferencia de la fórmula de la coca-cola, que supuestamente sigue intacta desde hace mucho tiempo y no ha cambiado en nada, la fórmula del Pagerank ha sido sometida a múltiples cambios.
Como he comentado en el apartado anterior, al principio, el Pagerank se basada en catalogar a las webs conforme al número de enlaces entrantes o Backlinks que recibía. Pero claro, esto era fácil de manipular, y los chicos de Google se dieron cuenta.
Para impedir esta manipulación de los algoritmos tan accesible y descarada, Google modifico el Pagerank para que no sólo tuviera en cuenta la cantidad de enlaces externos que recibía una web, sino también la calidad de esos enlaces.
Es decir, a partir de ese momento, tenía más valor un Backlinks de una web con una alta autoridad, que con una baja.
Con el tiempo ha ido evolucionado el Pagerank en muchos sentidos:
La IP del dominio que enlaza, la temática del dominio que enlaza, el anchor text o texto ancla del dominio que enlaza, la edad del dominio que enlaza, el número total de enlaces externos del dominio que enlaza, y una infinidad de factores más han ido sumándose para hacer más compleja y menos manipulable la fórmula del Pagerank.
Pero no sólo ha mejorado el algoritmo de Google en torno al Pagerank. Ámbitos como el tráfico web, la UX (experiencia de usuario), la WPO y otros tantos, se han convertido en parte muy importante de dicho algoritmo, y por lo tanto del SEO.

► Evolución del Algoritmo de Google

Poco a poco, Google fue incluyendo factores que ayudaron a evitar una fácil manipulación del algoritmo.
NOTA: Hay que decir que la exposición de estos cambios evolutivos sufridos en el algoritmo de Google no están mostrados cronológicamente.
· IA
Uno de estos aspectos principales fue la IA o arquitectura de la información. La necesidad de que las webs fueran cada vez más y más complejas y recopilarán un mayor volumen de información, hizo que Google se centrará en premiar a los sitios que mejor organizada tuviera dicha información.
Esto tenía un fin bastante claro: dar visibilidad a las webs que fueran más fáciles de usar y entender por parte de los usuarios.
Por lo tanto, empezaron a ganar posiciones los sitios que estaban mejor organizados y tenían una arquitectura de la información bien estructurada.
· Tráfico Global
El tráfico Global también jugó un papel importante a la hora de cambiar el algoritmo. Una web con un alto volumen de tráfico empezaba a tener más posibilidades de estar mejor posicionada en Google que otra con un volumen de tráfico más bajo.
· CTR
El CTR o el Click Through Rate es el número total de clics que recibe un enlace en comparación con el número total de impresiones (las veces que se muestra en las páginas de resultado de búsqueda).
Google entendíó que mientras mayor fuera el número de clic de un dominio comparado con las impresiones, mayor utilidad tendría esta web para el navegante conforme a otras y conforme al término de búsqueda utilizado por el usuario.
Por lo tanto, este fue otro de los factores que Google incluyó en su algoritmo.
· Link Juice
El Link Juice, o bien traducida, trama de enlaces internos, es la capacidad que tiene una web de repartir “autoridad” entre sus URLs a través de los enlaces internos.
Google entendíó que también es muy importante la relevancia que el desarrollador o empresa de la web le da cada una de las URLs de la web.
Dicho de otro modo, Google entendíó que, si enlazamos internamente un mayor número de veces a una URL que a otra de forma interna, esta primera tendrá que tener más relevancia.
El link Juice funciona igual que Link Building, es decir, existe una ecuación para denominar el valor o autoridad de cada una de las URLs de una web a través de sus enlaces internos.
En mi opinión, estos son los factores que más han evolucionado a lo largo de los años en el sector SEO. Por supuesto no están todos, pero si los más importantes.

Las técnicas SEO profesionales de hoy día


Ahora veamos cuáles son técnicas más importantes que se usan en SEO o Posicionamiento Web a nivel profesional hoy día.
► Link Building
Cómo ya he comentado en varias ocasiones, el link building ha sido, es y será uno de los factores más importantes del posicionamiento web.
► Keyword Research
Aunque profesional y personalmente, yo lo llevo a otro nivel, realizando un estudio de mercado orgánico, el keyword research es una de las principales técnicas de SEO.
Y ya no sólo es una de las más importantes, sino que se encuentra en la primera etapa de cualquier proyecto SEO.
Esta técnica consiste en peinar el mercado orgánico en busca de los términos de búsqueda adecuados para el modelo de negocio y su volumen mensual de búsqueda. Por otro lado se debe detectar la dificultad de posicionamiento de cada grupo de palabras clave y ordenar todos estos datos debidamente para posteriormente implementar estos términos de búsqueda en la web a través de la generación de URLs y contenidos.
► IA (Arquitectura de la información)
Como también hemos comentado antes, generar una arquitectura de la información coherente y adecuada es de vital importancia.
Una vez desarrollado el Keyword Research podemos lanzarlos a crear la IA a partir de los datos recopilados en el anterior estudio de palabras clave.
► Manipulación de densidades
Las densidades de palabras clave es una ecuación que se realiza sobre el texto total de una URL.
Ejemplo:
Tenemos una URL y la palabra clave principal es “zapatillas deportivas”.
La ecuación consiste en calcular el número total de veces que se repite la palabra clave “zapatillas deportivas” en comparación con el número total de palabras que hay en el texto.
La ecuación es la siguiente:
(NK *100) / NP = Densidad NK
(Número de veces que se repite la palabra clave * 100) / Número total de palabras que contiene el texto) = Densidad de Palabra clave
El deber de un SEO es tener controladas las densidades entre un 0,3 % y un 1%. *Esto puede variar en varias ocasiones dependiendo de varios factores.
► Control del SEO negativo
El SEO negativo es aquel que se desarrolla por terceros con fines destructivos o por la propia empresa o desarrollador de la web con malas Praxis.
La técnica más usada es el Link Building negativo, que no es otra cosa que la creación de enlaces externos perjudiciales para la web.
La técnica de control consiste en estar constantemente informados sobre el perfil de enlaces externos de la web y detectar posibles campañas de SEO negativo. Una vez detectadas se debe de restaurar el perfil de enlaces a la configuración anterior mediante los llamados disavows.
Mejora de UX o Experiencia de Usuario
Está más que comprobado que Google tiene una obsesión: sus usuarios. Google entiende que debe dar relevancia y visibilidad en sus páginas de búsqueda a las Webs o URLs que aporten valor al usuario.
Todo esto implica que métricas como el tiempo en página, las páginas por sesíón y el porcentaje de rebotes deben de tratarse con especial atención.
La técnica consiste en analizar los posibles elementos que estén dificultando una navegación fluida e intuitiva.
Por otro lado, la relación estrecha entre término de búsqueda y contenido es de vital importancia, ya que aparecer en los buscadores por palabras clave poco o nada relacionadas con el contenido de la web evitará conseguir buenas posiciones.
.
¿Qué es el crawleo o crawling llevado a cabo por parte de los motores de búsqueda?

El término 'crawling' o 'crawleo' hace referencia al método o procedimiento utilizado por los motores de búsqueda de Google para clasificar e indexar todas y cada una de las páginas web existentes en la red.
Esta indexación es fundamental para la visibilidad y el posicionamiento orgánico (SEO) de nuestra página, ya que es lo que va a determinar qué lugar ocupará en la página de resultados tras las búsquedas de los usuarios.
Si ya conoces el concepto 'crawleo' o 'crawling' y quieres aprender más sobre SEO, te recomendamos la lectura de las guías Los secretos del SEO y Cómo aplicar SEO en tu estrategia de marketing online.

¿Por qué se llama 'crawling' o 'crawleo'?



Ahora que ya sabes qué es el crawling o crawleo, es posible que tengas curiosidad por el origen de la palabra desde un punto de vista etimológico. El método de Google y otros buscadores para otorgar un puesto a nuestra página tras las búsquedas de los usuarios (es decir, su nivel de posicionamiento orgánico o SEO) proviene de la palabra 'crawler', que es una de la varias formas utilizadas para nombrar a los robots de búsqueda, como por ejemplo arañas, spiders o trepadores.

¿Qué son los crawlers?


Los crawlers, que pueden traducirse literalmente como 'arrastradores', son pequeños programas que viajan por la red, enviados por Google (el resto de buscadores utilizan herramientas similares) con una hoja de ruta muy clara:
1. Encontrar todas las páginas web existentes.
2. Analizarlas en función de una fórmula o algoritmo.
3. Asignarles a cada una de ellas una posición determinada en la SERP.
Hablamos de crawlers en plural y no de crawler en singular porque existen distintos tipos de rastreadores y cada uno de ellos se encarga de analizar y puntuar una información diferente. Uno de ellos es el crawl budget, el cual asigna un tiempo específico a cada link, y que ya analizamos con detalle en un post anterior de nuestro diccionario de marketing.
Los parámetros del crawling: el gran secreto de Google
En contra de lo que puedan decir supuestos gurús del SEO y de los artículos publicados por el propio Google, como este titulado How Search Works, donde se explican algunas cuestiones generales (de forma muy atractiva y visual) sobre los criterios de Google para posicionar las páginas tras las búsquedas de los usuarios, la fórmula exacta del algoritmo no se conoce.
Sí se sabe que existen más de 200 variables, entre las que se encuentran:
 El valor de los contenidos, en calidad y actualizaciones.  La accesibilidad y fluidez en la navegación de la página.  La estructura de la página.  La facilidad de acceso a la web por parte de los rastreadores.  La calidad técnica de la página, por ejemplo, su velocidad de carga o el nivel de optimización para todo tipo de dispositivos, en especial los móviles (smartphones y tablets).  La inexistencia de errores.
Al mismo tiempo que son de conocimiento público los aspectos más valorados por Google en cada actualización de su algoritmo, también se sabe que otros han perdido fuerza, como la inclusión directa de las keywords en los encabezados de html (metatags).
El conocimiento y estudio de estos parámetros a considerar en el SEO hace que el concepto de crawling no sea, ni mucho menos, completamente abstracto e ininteligible. Pero su fórmula exacta, es decir, la ponderación concreta de cada una de las variables que son tenidas en cuenta por los robots, sigue siendo el gran secreto de Google, celosamente guardado por los responsables de posiblemente la compañía más importante del mundo del ámbito de Internet.
Es importante subrayar que el crawling, es decir, el método para determinar el orden de la página tras los resultados de búsqueda, está en constante crecimiento, perfeccionamiento y adecuación a las nuevas tecnologías y formas de uso de Internet. Estas cada vez se decantan más por la navegación en dispositivos móviles, las búsquedas por voz y la importancia de la localización del usuario en el momento de buscar algo en la red.

Entradas relacionadas: