Todos los motores de búsqueda ocultan sus algoritmos de indexación, clasificación y clasificación bajo llave. Durante las primeras etapas del motor de búsqueda más popular – Google – Las señales de clasificación eran relativamente simples. Eran los días en los que casi todo lo que se necesitaba eran palabras clave y vínculos de retroceso.
Si preguntas cuántos factores de clasificación tiene Google hoy en día, la respuesta honesta es que nadie lo sabe exactamente. pero la mayoría Optimización de motores de búsqueda Los profesionales te dirán que hay más de 200.
Obviamente, los motores de búsqueda se han vuelto significativamente más sofisticados. Parte de la razón es que la Web se ha vuelto más compleja y más expansiva. Los motores de búsqueda también se han vuelto más sofisticados hoy en día porque la gente siempre está tratando de aplicar ingeniería inversa a factores de clasificación ocultos para su propio beneficio.
Jefe de Producto, IPRoyal.
¿Los propios motores de búsqueda necesitan agentes?
Si desea crear un motor de búsqueda desde cero hoy, deberá Servidores proxy Para que funcione correctamente. La tecnología básica del motor de búsqueda es relativamente simple. Ejecuta un script automatizado que rastrea un sitio web y descarga un archivo. HTMLy analiza el contenido.
Suponiendo que el contenido se considere relevante, se agrega al índice. Luego, los usuarios pueden usar la barra de búsqueda para explorar el índice y encontrar el contenido que necesitan. Por supuesto, Internet es ahora tan vasto y avanzado que un motor de búsqueda tan simplista podría considerarse un fracaso.
Dado que un rastreador necesita enviar miles o incluso millones de solicitudes a un sitio web para indexar cada contenido, es probable que dirección IP será bloqueado. Además, es posible que solo se pueda acceder a algunos contenidos si usted es de un país o región específica, lo que hace que sean necesarios representantes.
Los sitios web no bloquean los motores de búsqueda establecidos como Google, ya que casi todo el mundo quiere que su contenido esté indexado. Todavía necesitan obtener contenido basado en la ubicación, pero probablemente estén usando su propio contenido. Servidores En lugar de proveedores de proxy externos, aunque no podemos estar seguros.
¿Cómo afectaron los proxies a los motores de búsqueda?
Luego está el otro extremo del espectro. Optimización de motores de búsqueda Los profesionales y entusiastas siempre han querido saber cómo clasifican los sitios web los motores de búsqueda y qué influye en las primeras posiciones.
Si eres un usuario habitual, te resultará imposible saberlo. Aunque Google proporciona directrices, la mayoría de ellas son vagas (como “producir buen contenido”). Sin embargo, los profesionales de SEO han descubierto que pueden explotar motores de búsqueda a escala, agregando datos internos de sitios web para comenzar a obtener información sobre los factores de clasificación.
Sin embargo, se deben utilizar proxies, ya que la mayoría de los motores de búsqueda bloquean rápidamente a los usuarios que envían demasiadas solicitudes. Además, el contenido traducido no se entregará de manera efectiva sin cientos de direcciones IP.
Como resultado, los profesionales de SEO han creado herramientas personalizadas (que también se venden a otros profesionales) para comprender cómo y por qué los motores de búsqueda clasifican algunos contenidos sobre otros. Algunas de estas ideas pueden ser bastante convenientes y sencillas.
Un gran ejemplo de la comprensión y el mal uso de los sistemas de clasificación es una competencia de SEO que tuvo lugar en 2018. Alguien pudo clasificar un sitio web de rinoplastia en los resultados de búsqueda en inglés, pero todo el sitio estaba en latín.
Los motores de búsqueda, por supuesto, saben que existen herramientas que muestran factores de clasificación. Por tanto, si el contenido es demasiado granular, los motores de búsqueda tienen que ajustar sus algoritmos para evitar abusar de las clasificaciones.
Incluso si se utiliza para casos de uso legítimos de SEO, las personas que saben demasiado sobre cómo los motores de búsqueda clasifican el contenido pueden causar problemas. El resultado es que los motores de búsqueda tienen que jugar constantemente al gato y al ratón.
Este juego del gato y el ratón sólo fue posible gracias a la recopilación de datos a gran escala de los motores de búsqueda, y sólo fue posible a través de servidores proxy. Entonces, al final, los agentes tienen mucha influencia en la forma en que funcionan los motores de búsqueda.
Es muy fácil pensar que los agentes son pasivos, en el sentido de que revelan algún tipo de sistema de clasificación secreto y permiten que la gente abuse de él. Pero muchos de los cambios y ajustes realizados en los algoritmos a lo largo de los años han tenido como objetivo mejorar los resultados de búsqueda.
En sentido, Herramientas de optimización de motores de búsquedaLa recopilación de datos web mediante servidores proxy genera competencia indirecta para los motores de búsqueda. No se quedan con los ingresos de estas empresas. Pero los empuja a mejorar y ajustar constantemente sus algoritmos de clasificación, lo que beneficia a todos a largo plazo.
¡conexión!
Este artículo se produjo como parte del canal Expert Insights de TechRadarPro, donde mostramos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: https://www.techradar.com/news/submit-your-story-to-techradar-pro