En el SOB 2024 llevé una pequeña charla con metodología y estrategias pensando en ayudar a realizar mejores análisis SEO. El objetivo simplemente el de ayudar a enfocar aquellos análisis SEO que requieran de diversas fuentes datos, dar ideas de como mezclar dichos datos y enfocarlos en algo que facilite la obtención de Insights.
- Puedes ver los slides de la presentación al final de este post.
- Seguidamente se resumen todos los detalles de los que hablamos.
Tabla de contenidos
En la coctelería de datos SEO hay muchos ingredientes
Los que llevamos un tiempo en el mundo del SEO somos conscientes de que hay muchas fuentes de datos (en adelante ingredientes) cada una de las cuales aportan datos relevantes que pueden ser usados en nuestros análisis.
Pese a tener una gran disponibilidad de ingredientes valiosos, tendemos a analizar cada uno de ellos de forma aislada y en origen, lo cual no es la mejor forma de tratarlos ni mucho menos de aprovechar su potencial.
Es por ello que si por ejemplo usamos datos de GSC, no debe bastarnos con mirar 4 datos sueltos, sino que dichos datos debemos ser capaces de traducirlos en datos de negocio, entender si un cambio evolutivo está ligado a algún factor micro (de la propia empresa) o macro (externo a la empresa), e incluso adaptar/enriquecer las segmentaciones que vienen por defecto para alinearlas con el ecosistema digital de la empresa y su lenguaje.
La importancia de saber combinar distintos ingredientes
Dicho todo esto, es importante destacar que para poder llevar a cabo un enriquecimiento y mezcla de datos que aporte a negocio, debemos no solo entender los distintos datos de los que disponemos sino también el como unirlos para obtener mejores análisis e insights.
Entra en juego el perfil de Bartender SEO
Este perfil, que obviamente es inventado, pero que nos facilita el discurso y cuadra a la perfección con el evento del SOB, dispone de diversas habilidades que lo hacen idóneo para la coctelería de datos SEO. Estas habilidades de forma resumida son:
- Entender las necesidades.
- Obtener las fuentes de datos o ingredientes necesarios.
- Modelarlos de la forma oportuna.
- Presentar los datos finales de forma efectiva.
Hay que entender las necesidades y convertirlas en líneas de análisis
Trata cada línea de análisis de forma individual
Posteriormente hay que segmentar las necesidades del cliente en distintas líneas de análisis cada una de las cuales hay que tratarla de forma separada. Esto es especialmente relevante dado que si no separamos bien en distintas líneas de análisis o intentamos tratar varias de ellas a la vez, se complica la situación de forma innecesaria dando como resultado que no se llegue a los objetivos/insights esperados.
Pongamos como ejemplo que una de las líneas de análisis establecidas es entender si es viable reducir el gasto en SEM brand delegando dicho tráfico al SEO, en este caso si utilizamos una simplificación de una metodología que usamos en Ikaue, podemos definir que los datos y contexto relevante para dicha línea de análisis es como la siguiente:
Como podéis ver, esta forma de trabajar cada línea de análisis de forma individual y definiendo los datos/contexto necesario para resolverla, nos facilita el futuro tratamiento de los datos. Además es muy importante que cuando escojamos los datos necesarios, nos centremos solo en aquellos imprescindibles.
Sabemos que datos necesitamos, ahora hay que obtenerlos
Es importante destacar que los datos que necesitemos para resolver cada línea de análisis condicionan los ingredientes/fuentes que vamos a necesitar. Además dichos ingredientes puede ser que los tengamos disponibles desde un inicio o que tengamos que trabajar un poco más para obtenerlos. En cualquier caso nunca está de más poner todo esto en contexto para planificar el proceso de obtención de ingredientes/fuentes. La siguiente captura muestra una caso práctico de esto, basado en la línea de análisis de entender si puede reducirse gasto SEM Brand en favor de SEO sin perjuicio para el negocio.
Algunos ingredientes son más fáciles de obtener
Cada ingrediente que necesitemos reviste de algún tipo de acción para obtenerlo, por ejemplo en el caso de GSC nos pone las cosas más fáciles para obtenerlo, pues nos da hasta tres modalidades que son:
- Descargar datos en formato CSV des interfaz de GSC
- Cargar datos de GSC en Google Sheets desde un plugin
- Cargar datos de GSC en BigQuery con el export oficial
La obtención de otros ingredientes es más compleja
Otras veces en cambio para obtener un ingrediente es necesario trabajarlo un poco más, por ejemplo en Ikaue hace un tiempo necesitamos generar un proceso que ayudara a agilizar la indexación de nuevas urls de varios sites. Para ello creamos un Google Sheets en el cual cargábamos urls mediante CSV o con una conexión directa BigQuery, le insertamos un código de Google APPs Scripts que permitía usar la API de indexación de Google, y con ello agilizar la indexación de urls nuevas y relevantes. En este caso el ingrediente que es la API de indexación de Google no fue algo tan sencillo como instalar un plugin, por ello que según cual sea el ingrediente vais a trabajar más para obtenerlo.
https://ikaue.com/recursos_gratuitos/indexing-url-helper
Dispón de alternativas para obtener los ingredientes
Dado que cada ingrediente tendrá un grado de dificultad distinto en su obtención, es importante disponer de distintas alternativas que nos faciliten este trabajo en función del contexto. Nosotros por ejemplo solemos recomendar lo siguiente:
- Hojas de cálculo: si prima la velocidad y no hay complejidad por volumen de datos ni por su manejo.
- Herramientas de flujos de trabajo: cuando se requiere de un mayor control/adaptación del dato
- Programación a medida: cuando el volumen de datos o algoritmos a utilizar son complejos/pesados
En trabajos simples se pueden usar hojas de cálculo
En estos casos solemos utilizar Google Sheets que, junto a distintos plugins y opciones, nos permiten trabajar con bastantes tipos de datos. Nosotros por ejemplo solemos usar lo que se muestra en la siguiente imagen, aunque realmente hay más posibilidades:
Para mayor control usamos herramientas de flujos de trabajo
Para quien tenga curiosidad sobre N8N, os dejo un enlace de un compañero que explica como instalarlo y que podáis trastear.
https://ikaue.com/blog-data/guia-como-instalar-n8n-en-un-servidor
Cuando la obtención de ingredientes es compleja hacemos programación a medida
En nuestro caso hemos desarrollado un sistema que permite a todos nuestros consultores ser autónomos generando sus propios datos, además de ofrecerles flujos de datos estandarizados, refinados y actualizados para que siempre trabajen con el modelo de datos más nuevo que tengamos.
Tenemos los ingredientes, ahora hay que preparar el cóctel
Revisa los datos antes de usarlos
Es muy habitual que cuando obtenemos un ingrediente, o lo que es lo mismo que ya tenemos los datos de una fuente disponibles, veamos que los datos no son son todo lo correctos que cabría esperar.
En esos casos hay que hacer un trabajo previo para dejar los datos de la forma oportuna antes de empezar a utilizarlos. Esto puede llevarse a cabo incluso desde un Google Sheets, aunque si usáis herramientas mas avanzados como las de control de flujos de trabajo o algún proceso programado a medida, es desde esas mismas herramientas que deberías hacerlo.
Transforma los ingredientes para obtener un mayor potencial
Todo ingrediente puede ser transformado y generar nuevos sabores, esto se traduce en que una vez disponéis de los datos de alguna fuente, dichos datos son susceptibles de mejorarse con transformaciones y obtener un mayor potencial en el análisis final. Un ejemplo de esto pueden ser los datos de GSC, los cuales en su versión de origen ya son útiles, pero añadiéndoles nuevos datos como por ejemplo tipo de keyword (p.e. marca, marca exacta y no marca), nos amplían mucho el espectro de cara a su posterior explotación. Además, dichas transformaciones generalmente pueden ser obtenidas a través de los datos básicos sin procesos muy complejos.
A modo de ejemplo sencillo de transformación y desde el propio Looker Studio, puede obtenerse el valor de tipo de keyword mencionado antes e incluso dispone de varias formas de hacerlo (función CASE o los grupos):
La idea de fondo es usar estas transformaciones en favor de un mejor análisis, por ejemplo en la siguiente captura que usa dos transformaciones de los datos (clicsCluster y positionCluster) se puede ver claramente como la mayor parte de keywords en TOP3 del cliente no aportan casi clics, y las pocas que hay en TOP3 que si aportan no lo hacen en gran medida, a lo cual hay que sumar que tras un análisis más profundo se vio que en su mayoría eran de marca.
Mezclado, no agitado
Cuando ya disponemos de los ingredientes listos para usarse, es importante también el saber como mezclarlos. Generalmente este proceso consiste en que cada fuente de datos a mezclar, disponga de un ID de cruce común a todas ellas, y en caso de no disponer de forma inicial de dicho ID intentar montarlo (esto incluso lo podéis llegar a hacer desde Sheets aunque otras herramientas como SQL os dan mayor potencial). Es por ello que si conseguimos hacer esto bien, lo que serían varia fuentes de datos valiosas por separado, mejoran mucho el potencial/facilidad de análisis al cruzarlas.
Como os habréis fijado lo anterior es un ejemplo simple de cruce, pero en esto de los cruces realmente la podéis liar mucho y obtener accionables/insights los cuales con las fuentes por separado, no hubierais podido obtener nunca.
Busca el momento perfecto para cada ingrediente
Puede ser que los distintos ingredientes que necesites para tu cóctel SEO tengan los datos disponible en momentos distintos, debido a ello es importante que busques el momento idóneo de de todos ellos y puedas cruzarlos.
Pon las cosas fáciles para el consumo de datos
La presentación de datos es muy importante
Elige los gráficos en función de lo que quieras trasmitir
A veces algo simple es suficiente
En ocasiones no hace falta complicarse mucho la vida para generar acción, puede que como en la siguiente captura con un gráfico de barras y otros de barras apiladas puedas obtener el resultado esperado.
En este caso se extrajo un cliente nos pidió que le ayudáramos a transmitir a su departamento de IT que sus PLPs no cargaban de forma ágil, por ello mediante la API de CRUX se extrajeron datos de sus PLPs y de varios de sus competidores, poniendo en evidencia que estaba muy por debajo de ellos. Solo con esto ya se consiguieron promover diversas mejoras en tiempo de carga.
Otras se requiere de algo más complejo
Otras veces en cambio hay que liarla un poco más en la visualización. En la siguiente captura en que se usan datos de nuestro crawler, se llevó a cabo un tipo de visualización que otras herramientas ya hacen de forma similar, sin embrago no con el tipo de parametrización que usamos nosotros. Dicha parametrización nos permitió ver que en una sección de la web del cliente, en profundidad 1 y 2 (líneas verdes) no había casi problemas, pero a la que pasamos a profundidad 3 y 4 se encontró una gran cantidad de problemas en el tipo de páginas enlazadas. Es por ello que con una visualización más compleja pero alineada con el cliente, se pudieron promover diversas acciones para mejorar la autoridad y crawl Budget.
Facilita la extracción de insights/accionabilidad
Lo importante siempre es que el análisis entregado ayude a generar acciones de mejora basadas en datos. Por ejemplo en el siguiente caso se mezclaron datos de Google Merchant y datos de stock del cliente. El objetivo fue facilitar al cliente entender que productos de otras marcas son los que más venden, pudiendo filtrar por mercado y categoría, e indicarle cuales son sus productos más similares. Esto permitía al cliente alimentar sus categorías con aquellos productos más similares a los que más vendían, mejorando la conversión y por lo tanto optimizando lo que ya captan en SEO.
Ayuda controlar estrategias
No olvidemos también que la visualización oportuna nos ayuda controlar estrategias. En el siguiente caso un cliente publicaba al día muchas páginas, por ello se hizo una estrategia de indexación temprana de urls, la cual seguíamos con el siguiente dashboard que mezcla datos de GSC y Logs, pensando especialmente en controlar el número de urls que publica y a que velocidad Google las rastrea, así como la velocidad a la que dichas urls empiezan a generar impresiones/clics.
En conclusión
Si quieres obtener un verdadero potencial con tus datos SEO, no mires las fuentes de datos por separado, debes tratarlas y unirlas ya no solo para acceder a insights que de otra forma no podrías, sino también para generar accionables que aporten verdadero valor al negocio. Es por ello que si te conviertes en un Bartender de datos SEO podrás inventar cocteles que den salida a cualquier necesidad de análisis que vaya surgiendo.