Semalt: Cómo combatir los robots de spam como los botones para el sitio web, Darodar y otros

La mayoría de los informes de Google Analytics contienen picos de tráfico, obviamente de referencias. A menudo, cuando los usuarios experimentan picos de tráfico, tienden a copiar y pegar el enlace de referencia en una nueva pestaña de un navegador para establecer el origen de la página web. Un spambot puede ser evidente cada vez que los usuarios en las páginas de referencia ven enlaces que venden SEO y con sus propios sitios en ningún lado.

Los robots de spam son frustrantes e inteligentes. Se aprovechan de los administradores web que los ignoran (que no entienden cómo funcionan los robots de spam). Independientemente de su motivo, los robots de spam arruinan las métricas de un sitio. En este sentido, dicho tráfico debe ser evitado tan pronto como aparezca.

Por lo tanto, Lisa Mitchell, la experta líder de Semalt , describe en el artículo formas de eliminar los robots de spam en los informes de Google Analytics.

Filtrado de bots en Google Analytics

Es el medio más fácil de eliminar bots en Google Analytics. En la mayoría de los casos, el tráfico de bots llega a un sitio y Google Analytics no informa su efecto. La función debe volver a habilitarse al crear un nuevo sitio web o cambiar las cuentas de Google Analytics. Ese es el enfoque más fácil. El procedimiento detallado se describe a continuación:

  • Inicie sesión en la cuenta de Google Analytics.
  • Elija la propiedad en la que necesita trabajar.
  • En el botón Administrador (en la parte superior), seleccione "Ver configuración" en la columna superior derecha.
  • Navega hacia abajo y elige la casilla "Excluir todos los golpes de arañas y bots conocidos".

Filtros de Google Analytics

Es el tipo de filtro final. La configuración de un filtro para ocultar el tráfico del sitio de cierto dominio o ISP (proveedor de servicios de Internet) evita que se informen las futuras métricas web de referencia. Los expertos en Internet consideran esto como una solución fuera de la mente, fuera de la vista. Los spambots seguirán invadiendo un sitio hasta que Google Analytics informe de dicho tráfico. La idea es crear varios filtros, y cuando los robots de spam cambian su TLD (dominio de nivel superior), se requiere otro filtro. Teniendo esto en cuenta, los expertos recomiendan los filtros de Google Analytics, ya que cada vez que un usuario cambia de servidor web o vuelve a codificar sus sitios, no será necesario copiar nada mientras el mismo Google Analytics siga en uso.

Reglas de acceso

La técnica detiene el spam incluso antes de que invada el primer byte de código desde el front-end. La principal ventaja de este método es que los archivos htaccess pueden permanecer en el directorio de archivos public_html de un sitio y bloquear spambots para cualquier cosa en el servidor. Esto implica que los usuarios con muchos sitios necesitan hacerlo una vez. Una desventaja importante de htaccess es que uno debe recordar llevar estas reglas cada vez que cambian de host o recodifican una página web que no está cubierta por el archivo htaccess anterior.

Nombre de host válido

La mayoría de los expertos en internet prefieren esta forma de bloquear los robots de spam. En la mayoría de los casos, el método se combina con varios filtros del lado del servidor (como htaccess anterior), así como con una función PHP personalizada que extrae una lista de dominio de la lista actualizada regularmente de los robots de spam más comunes. El método solo permite nombres de host válidos en lugar de filtrar dominios no deseados.

mass gmail