La clave del éxito en línea generalmente depende de un factor clave por encima de todos los demás: la clasificación de su sitio web en la búsqueda de Google.
Durante décadas, toda la industria (optimización de motores de búsqueda o “SEO”) ha girado en torno a intentar descifrar el código que mueve una página en particular a la cima de la clasificación para varias consultas de búsqueda de palabras clave en Google.
Esta semana salió a la luz ese “código”, o más concretamente los secretos detrás del algoritmo del motor de búsqueda de Google. Se filtró.
“En el último cuarto de siglo, la división de búsqueda de Google no ha informado de ninguna filtración de este tamaño o detalle”. Él dijo El director ejecutivo de Sparktoro, Rand Fishkin, es una figura influyente desde hace mucho tiempo en la industria del SEO.
Es posible que el tweet haya sido eliminado.
Fishkin ha trabajado en la industria durante años y fundó la consolidada empresa de SEO Moz. La larga historia de Fishkin con SEO es probablemente la razón por la que una persona anónima decidió enviarle el documento interno “Content API Warehouse” de Google. Este documento de 2.500 páginas explica una gran cantidad de información previamente desconocida o no confirmada sobre cómo Google clasifica los sitios web en su motor de búsqueda.
Mientras que Google tiene Incierto Respecto a la legitimidad de la filtración explícitamente, Fishkin compartió que un empleado de Google lo contactó para cambiar la descripción de algunos detalles que publicó en su análisis del documento. Fishkin y varios otros líderes de SEO y marketing digital también examinaron las páginas y creen que la filtración es legítima.
Le dimos a la descripción general de la IA de Google el beneficio de la duda. Así es como lo hicieron.
Hay mucha información técnica en el documento, que parece estar destinada más a desarrolladores y profesionales técnicos de SEO que a legos o incluso profesionales de SEO que se especializan en la creación de contenido. Sin embargo, hay algunos detalles muy interesantes que todos podemos sacar de esta filtración.
Obviamente, Google usa Chrome para clasificar las páginas.
Esto es especialmente interesante ya que Google lo ha hecho anteriormente. rechazar Utilice Chrome para categorizar sitios web.
Según documentos analizados por expertos como Fishkin, Google parece realizar un seguimiento del número de clics que recibe una página web de los usuarios en su navegador web, Chrome, para elegir qué páginas del sitio web incluir en su mapa del sitio de consulta de búsqueda.
Entonces, si bien no parece que Google esté usando esta información para determinar directamente dónde se clasificará un sitio completo, los analistas han especulado que la compañía está usando la actividad de Chrome para determinar qué páginas internas se mostrarán en la búsqueda dentro de la página de inicio de un sitio web.
Google parece marcar sitios “pequeños y personales” por una razón
Experto en optimización de motores de búsqueda mike rey iPullRank señaló esto y generó más preguntas que respuestas.
Velocidad de la luz triturable
Según un análisis de un documento interno de Google, la empresa tiene una etiqueta específica que adjunta a los “pequeños sitios web personales”. No está claro cómo define Google qué es un sitio web “pequeño” o “personal”, y no hay información sobre por qué Google etiqueta los sitios web con esta etiqueta. ¿Esto es para ayudar a promocionarlos en la búsqueda? ¿Para bajarlos en el ranking mundial?
Su propósito es un misterio en este momento.
Los clics importan mucho
Este es otro problema sobre el que los expertos en SEO han especulado durante mucho tiempo, y es un problema que Google tiene rechazar A través de los años. Una vez más, parece que los expertos tenían razón.
Resulta que Google depende de los clics de los usuarios para su clasificación en las búsquedas mucho más de lo que se sabía anteriormente.
NavBoost es un factor de clasificación de Google que se centra en mejorar los resultados de búsqueda. Se centra en gran medida en los datos de clics para mejorar estos resultados. Según King, ahora sabemos que NavBoost contiene “un módulo específico que se centra completamente en las señales de clic”. Uno de los principales factores que determinan la clasificación de un sitio web para una consulta de búsqueda: clics cortos frente a clics largos o cuánto tiempo permanece un usuario en la página después de hacer clic en el enlace de una búsqueda de Google.
Los dominios de coincidencia exacta pueden ser malos para el ranking de búsqueda
Si encuentra un nombre de dominio que contiene varias palabras clave y guiones, por ejemplo Autos usados en venta.net Por ejemplo, al menos parte del motivo probablemente fue el SEO. Entre los inversores de dominios y la comunidad de marketing digital existe desde hace mucho tiempo la creencia de que Google ha recompensado los nombres de dominio con coincidencias exactas.
Resulta que esto no siempre es cierto. De hecho, un alcance de coincidencia exacta puede perjudicar tu clasificación.
Hace aproximadamente una década, Google hizo precisamente eso Involucrado Los nombres de dominio de coincidencia exacta seguirán sin ser muy valorados como herramienta para obtener clasificaciones, a pesar de que alguna vez fueron favorecidos por el algoritmo. Sin embargo, ahora tenemos evidencia gracias a esta filtración de que existe un mecanismo para degradar estos sitios web en la búsqueda de Google. Resulta que Google ve muchos de estos tipos de dominios de la misma manera que las prácticas de relleno de palabras clave. El algoritmo considera este tipo de URL como spam potencial.
Listas blancas de temas
Según el análisis de documentos, Google tiene listas blancas para determinados temas. Esto significa que los sitios web que aparecen en la Búsqueda de Google para este tipo de consultas de búsqueda deben aprobarse manualmente y no aparecen según factores de búsqueda clasificados algorítmicamente normales.
Algunos de los temas no son muy sorprendentes. Los sitios web que contienen contenido relacionado con información sobre el coronavirus (COVID) y consultas políticas, específicamente sobre información electoral, están incluidos en la lista blanca.
Sin embargo, también existe una lista blanca de sitios de viajes. No está claro exactamente para qué sirve esta lista blanca. Los expertos en SEO han sugerido que esto puede estar relacionado con los sitios de viajes que aparecen en pestañas y widgets de viajes específicos de Google.
google “mintió”
Fishkin, King y otros expertos en SEO pudieron confirmar y desacreditar bastantes teorías de SEO gracias a este documento filtrado. Ahora les queda claro que Google no ha sido completamente honesto acerca de cómo funciona su algoritmo de búsqueda a lo largo de los años.
“'Mentir' es una palabra dura, pero es la única palabra precisa que se puede utilizar aquí”, escribió King en su propio análisis del documento de Google Content API Warehouse.
“Aunque no culpo necesariamente a los representantes públicos de Google por proteger su información privada, sí me opongo a sus esfuerzos por desacreditar a personas en los mundos del marketing, la tecnología y el periodismo que han hecho descubrimientos reproducibles”, dijo.
A medida que los expertos de la industria continúen estudiando este enorme documento, es posible que pronto descubramos algunos detalles interesantes ocultos en el algoritmo de búsqueda de Google.
Un representante de Google rechazó la solicitud de comentarios de Mashable.
Hilos
Google
Publicidad