Acción en página de destino que afecta al nivel de calidad

Destripemos el corazón de Google Ads

Moderador: enriquedelvalle

Borja Sigüenza
Colaborador ACD
Colaborador ACD
Mensajes: 62
Registrado: Lun, 30 Dic 2019, 10:25

Acción en página de destino que afecta al nivel de calidad

Mensaje sin leer por Borja Sigüenza » Lun, 08 Feb 2021, 18:01

Como sabemos, la experiencia en la página de destino es un factor clave que afecta a los niveles de calidad de nuestras campañas.

Muchas veces, cuando llevamos tráfico desde nuestros anuncios a una landing page, no queremos que Google indexe dicha landing, y para ello, lo que hacemos es encargar a nuestro webmaster que bloquee los bots de Google encargados de indexar las páginas y leer contenido.

¿Cuál es el error?

El error es que cuando se bloquea el bot de Google llamado “Googlebot” encargado de indexar páginas y leer contenido, sin querer, se bloquea también el “AdsBot”, que es el bot de Google encargado de rastrear las landing pages de los anuncios de nuestras campañas.
Cuando esto ocurre, el “AdsBot” no puede evaluar el contenido, la relevancia, y en definitiva, los parámetros necesarios para otorgar un nivel de calidad en la página de destino, con lo cual, el nivel de calidad se desploma.

IMPORTANTE, por tanto, cuando no queramos indexar una landing pages, tener en cuenta que no se bloquee “AdsBot” cuando bloqueamos “Googlebot”.

Para comprobar que “AdsBot” no está bloqueado, escribe la URL en la barra de direcciones de tu navegador y añade /robots.txt al final del nombre de dominio y pulsa la tecla Intro. Ejemplo: www.ejemplo.com/robots.txt

A continuación, te vamos a mostrar dos casos en los que el AdsBot de Google podría bloquearse en el archivo robots.txt:

# Caso 1:
User-agent: *
Disallow: /slug-de-página-que-no-quieres-indexar.

# Caso 2:

User-agent: AdsBot-Google
Disallow: /slug-de-página-que-no-quieres-indexar

Para más info: https://support.google.com/google-ads/a ... 9701?hl=es

Comentaros, por último, que es un error frecuente querer que Google no indexe una página bloqueando el acceso de sus bots usando el archivo robots.txt, pero es importante apreciar que el hecho de que Google no pueda acceder a una página no significa que no pueda indexarla, sobre todo si es enlazada desde algún sitio. Por ello la forma correcta para que la página no indexe es usando la etiqueta html meta robots: <meta name="robots" content="noindex" /> ,por tanto, si realmente solo queremos evitar que la página se indexe, lo recomendable es usar el método <meta robots> y no usar el archivo robots.txt para dicho fin.

¿Habéis notado los niveles de calidad de la página de destino bajos y no encontrabais una explicación? ¿Comprobasteis si el AdsBot estaba siendo bloqueado?