¿Su sitio no aparece en los motores de búsqueda? La indexación puede tener algo que ver con la indexación y no con la falta de clasificación. Esta es una diferencia importante, que muchos todavía confunden: un sitio colocado incorrectamente todavía está indexado, por lo que buscarlo en el motor de búsqueda se puede encontrar.
Problemas de indexación en Google: ¿Cómo detectar errores y corregirlos¿
Con un solo clic, obtén:
- Contenidos atractivos que captan la atención de tu audiencia
- Creatividad desbordante para contenidos que emocionan
- Textos actualizados con las últimas tendencias para posicionarse en buscadores
Cómo comprobar que están indexados en los motores de búsqueda? Subir en las SERPs de Google: ¡una batalla SEO!Lo primero que hay que hacer es averiguar si realmente hay un problema técnico en la indexación del sitio. Simplemente deshabilite SafeSearch y escriba domainname.tld (por supuesto, cambie su domainname.tld a su dominio real). Esto le mostrará todas las páginas de su dominio que Google ha indexado. Si no encuentra resultados, significa que el sitio no está en el índice. ¡El motor de búsqueda puede tardar algún tiempo en indexar páginas! Como recomienda el soporte técnico de Google: Espere al menos una semana después de enviar un sitemap o solicitar la indexación antes de asumir que hay un problema.
Si el problema no es el «factor de tiempo» y está seguro de que ha implementado todas las prácticas recomendadas para ayudar al motor de búsqueda a encontrar sus páginas, el segundo paso, podría ser profundizar el informe sobre la cobertura de Google Search Console, con el fin de obtener información más precisa sobre el progreso del sitio.
A menudo sucede que cuando creas un sitio web con WordPress, no prestas la máxima atención a ciertos aspectos. Ve al área de administración de WordPress y ve a Configuración> Leer., envía la página de inicio a Inspección de URL de Search Console. Puede contener configuraciones que pueden redirigir el tráfico a otros dominios, establecer la duración de la caché, proteger el acceso a una carpeta, evitar la indexación y mucho más Editar el archivo .htaccess es una operación de acción muy delicada, que solo debe realizarse después de varias pruebas en un entorno de prueba ya que, al cometer errores, podemos llegar a desencadenar un bucle infinito de nuestra página.
Otro paso que debe dar para indexar correctamente su sitio web es comprobar cómo se insertó el archivo de texto .txt robots, que es un archivo de texto codificado con caracteres UTF. La sintaxis básica de un archivo de robots.txt es bastante simple: especifique el nombre de un robot y una acción, el rastreador es identificado por el agente de usuario, mientras que las acciones (por ejemplo, No permitido) se pueden especificar en la desautorización. Sin embargo, un archivo .txt robots configurado incorrectamente también puede tener una regla que impide que los bots y arañas ana escanear una página determinada que desea que aparezca en los resultados de búsqueda.
Todo el mundo sabe que a Google le gusta el contenido, pero el contenido tiene que ser único. Sabemos que esta condición es muy rara, especialmente en el comercio electrónico (piense, por ejemplo, en una lista de productos ordenados por el aumento del precio, la disminución del precio y las últimas llegadas). Si las páginas de su sitio web utilizan los mismos bloques de contenido, Google identifica esas páginas como básicamente las mismas, lo que puede dar lugar a que Google indexe sólo una de las páginas que muestra el contenido y, en consecuencia, es aconsejable indicar al motor de búsqueda cuál de las páginas es representativa, cuidando que se convierta en «canónica», en comparación con la otra , que será «canonizado». Otras páginas, por otro lado, no serán indexadas. Si se controlan incorrectamente, los parámetros pueden provocar que las direcciones URL se excluyan de los resultados de búsqueda.
Cuando un usuario, o araña, visita una página en un sitio web, el navegador solicita información del servidor: HTML básico y varios recursos externos (incluidos los que utilizan Javascript). A continuación, el navegador combina toda la información adquirida para cargar la página web completa de todas sus características. Cuando la araña encuentra páginas web con JavaScript, utiliza su propio renderizador para ejecutarlo. Sin embargo, dado que esto requiere mucho tiempo y recursos informáticos, la representación de sitios web basada en JavaScript se aplaza hasta que el Googlebot tiene los recursos disponibles para procesar ese contenido. Esto significa que el bot tiene dos oleadas de indexación entre el contenido y algunos detalles pueden perderse.
La configuración de JavaScript mal ejecutada podría hacer que el sitio se escanee incorrectamente y, por lo tanto, tenga efectos negativos en la indexación y colocación del sitio. Estos son algunos de los casos más comunes en los que un sitio puede tener problemas de indexación: HTML básico que es demasiado diferente del HTML final con JavaScript. Cuando Google escanea el sitio por primera vez, ni siquiera lo representa. Intente deshabilitar JavaScript desde su navegador y navegue por el sitio para comprobar que aparece correctamente y, a continuación, compare el HTML de la página renderizada (Google Mobile Friendly Test) con el que se muestra en el código fuente para resaltar cualquier diferencia.
Compruebe si se han aplicado acciones manuales a su sitio. La consecuencia podría ser una simple disminución visible en la clasificación, pero también la eliminación total del sitio de los resultados de búsqueda. Además, asegúrese de que no se han notificado problemas de seguridad en el sitio. No sabe cuánto tiempo para resolver este problema: las direcciones URL pueden volver a indexar correctamente en un par de días, pero pueden tardar meses en recuperar las ubicaciones perdidas.
Contents
Contents es una empresa innovadora de tecnología de marketing de alto rendimiento que ha desarrollado una plataforma de software propia que analiza, produce y distribuye contenidos originales. Contents también utiliza un sistema de Generación de Lenguaje Natural, basado en Inteligencia Artificial, que permite crear, en pocos segundos, contenidos nativos multilingües y personalizados, sin necesidad de intervención humana. Nuestros servicios están diseñados para el comercio electrónico, los editores y las agencias web. ¡Regístrate gratis!