El pasado 9 de abril se celebró el evento Search Central Live en Madrid. Si no sabes qué es, los Search Central Live son actos que realiza internacionalmente Google en los que aclara dudas sobre sus actualizaciones y su hoja de ruta, siendo el evento de SEO con más renombre mundialmente.
Además, como algo especial a destacar está la posibilidad de aclarar las dudas a los profesionales que asistan al evento. Este año hemos tenido la suerte de que se ha hecho en nuestro país en un momento donde más dudas se tiene sobre el uso de IAs generativas, los snippets de IAs y las reiteradas Core Updates a las que nos hemos tenido que enfrentar.
Principales conclusiones que podemos sacar del Search Central Live de Madrid
Como comentamos anteriormente, este año, junto con el anterior, han sido años muy turbulentos para los especialistas SEO y para los copywriters. El perfeccionamiento de la IA generativa, las Core Updates que hicieron caer a gigantes y tomar cada vez más relevancia de foros como Reddit que eran un nicho en el que no tenían actividad las empresas.
Por ello, desde ómibu, vamos a comentarte las principales claves que se han dicho en este evento para que no te pierdas nada y te puedas mantener siempre actualizado.
Aclaraciones sobre el snippet de AI Overview
Un aspecto que suscitó muchas dudas y temores fue el nuevo snippet en referencia a los resultados hechos con IA. Desde su inclusión hace meses en Estados Unidos y recientemente en España, los especialistas no teníamos claro cómo influiría en nuestro trabajo. Google dio calma en ese sentido.
John Mueller aclaró que actualmente no se puede realizar un rastreo concreto en las visitas derivadas por el tráfico de IA en GSC. Además, confirmó que tanto para Gemini, como para la inclusión de las páginas al snippet no repercute el hecho de que tu página tenga el famoso llms.txt que ha cobrado relevancia en los últimos meses.
Por último, aclaró que no solo tiene en cuenta la calidad del contenido en este snippet, sino la precisión con la que responda a la pregunta que hagan los usuarios.
Lamentablemente, no se habló de la inclusión del AI Mode en España o en los países europeos; no obstante, si quieres adelantarte y ser de los primeros en España, en su día mostramos cómo acceder al AI Mode desde España.
Llega la versión de escritorio de Google Discover
Uno de los grandes puntos que se trataron es referente a Google Discover. Como sabrás, este es un feed personalizado en el que, hasta ahora solo en móvil, se muestran noticias de interés para cada persona.
Aunque pueda parecer un aspecto sin importancia para muchos, según el informe de Chartbeat referente a esta materia, el 43,5% de tráfico recibido en 2023 por los sitios web que usan su herramienta en Europa, Oriente Medio y África proviene de Google Discover. Algo que siguiendo la tendencia ha ido creciendo y que, con esta actualización, tendrá un crecimiento mucho más pronunciado en este 2025.
Se seguirá priorizando el contenido de foros y comunidades
Algo que observamos con sorpresa recientemente es que en los últimos meses, foros como Reddit aparecen por encima de webs corporativas que llevaban capitalizando muchas palabras claves informativas.
Esto, lamentablemente para nosotros, seguirá siendo así, por lo que se tendrá que trabajar de forma extra esas palabras clave tan competidas e incluso, en algunos casos, tendremos que tirar de creatividad para poder posicionarnos.
Google eleva los estándares de calidad del uso de la IA
Hace unas semanas Google afirmó que, mientras fuese un contenido de calidad y que respondiese a la búsqueda del usuario, no se penalizaría a las páginas. Gracias al Search Central Live de Madrid sabemos que sí que ha habido un cambio de rumbo en este aspecto.
En la actualidad, vemos que ese criterio se ha endurecido, ya que atendiendo a los criterios del propio Google «Se aplicará la puntuación más baja (de calidad) a aquellas páginas que tienen todo o casi todo el contenido principal copiado, parafraseado o generado por IA sin esfuerzo, sin originalidad o sin valor añadido».
Respiro tras la aclaración de las penalizaciones del abuso del Linkbuilding
Otra de las noticias más hablada y con más preocupación era la actualización en la política sobre prácticas de enlazado externo. Una preocupación muy lógica, pues vimos como en grandes web que se tienen como referencia sus visitas cayeron en picado hasta menos de la mitad, como Hubspot.
Debido a esto, muchos freelancers y agencias de marketing teníamos la preocupación de cómo definía ahora Google enlazado tóxico y si afectaría a los autores de las páginas, ya que esto ponía potencialmente en riesgo nuestro trabajo y reputación.
Consciente de esto, desde Google se habló del tema explícitamente de esta problemática. Aclaró que la actualización de abuso de reputación del sitio afecta únicamente a las prácticas del sitio, no a las personas y autores.
Para finalizar, también negó la posibilidad de que hubiese una «lista negra» de freelancers que fuesen conocidos por aprovecharse de ese abuso de reputación.
Cómo nos afectará a las agencias de marketing y freelancers y qué debemos hacer
Pese a haber seleccionado únicamente los puntos más importantes, podemos observar que son muchos insights de valor los que nos han dado los trabajadores de Google en este Search Central Live presentado en Madrid. Por lo tanto, un profesional se pregunta qué hacer en consecuencia, desde ómibu mostramos los consejos más relevantes.
Enfocarnos en la calidad
La tónica general del evento era clara, la calidad es el aspecto fundamental que debemos perseguir con nuestros clientes. Además, la calidad no solo debemos entenderla solo como calidad del contenido, sino también como calidad de la respuesta.
Por lo tanto, lo que debemos de tener en cuenta no es solo tener un buen contenido completo, sino que deberemos priorizar la utilidad del mismo y ser muy preciso en su creación.
No depender nunca de las IAs generativas
Cada vez se muestras más alicientes de que debemos usar las IAs con cautela. Pese a que en ocasiones por el volumen de clientes o por el tiempo que tomamos en ellos podemos pensar en optar por usar un LLMs, debemos hacerlo con mucho cuidado y realizándolo con nuestro propio estilo de redacción, adaptándolo por supuesto a cada lector o cliente.
Esto se debe, no solo a lo que actualmente se ha dicho, sino a lo que probablemente pueda ocurrir en el futuro, ya que se ha visto una tendencia creciente en la exigencia con respecto a su uso.
Además, debemos tener en cuenta que las actualizaciones de Google tienen efecto retroactivo; es decir, no importa si se creó la página siguiendo las directrices de ese momento, si ahora no se cumplen o no se cumplen las posibles directrices del futuro, afectará de la misma forma a esa página.
Evitar la visión de túnel con las IAs
El tema tendencia que se ha hablado en los últimos meses, especialmente el último, es la aparición de nuestras empresas en los resultados de ChatGPT, Perplexity o Gemini. Algo lógico, pues los propios clientes lo demandan. El «GEO» parece ser para algunos especialistas, expertos en vaticinar la muerte de Google año tras año, lo único que debemos tener en cuenta.
No obstante, las explicaciones de Google nos muestra que, aunque las debamos tener en cuenta y mantenernos actualizados, no debemos basar nuestra estrategia SEO en los LLMs o gastar muchos de nuestros recursos disponibles en estos.
Esto se refuerza si atendemos al informe de Ahrefs que nos muestra que únicamente el 0,1% del tráfico total de los canales es de los LLMs.
Tener cuidado con las técnicas de linkbuilding
Por mucho que Google diga siempre, incluido en esta ocasión en el Search Central Live, que debemos tener un perfil 100% natural en el que el enlazado externo debe apuntar a nuestra web porque las otras webs nos ven de calidad, en la práctica esto resulta imposible para empresas pequeñas y sigue siendo muy complicado para las grandes.
No obstante, no debemos ignorar los avisos y las consecuencias de no procurar que nuestro enlazado se vea natural; por lo tanto, cada vez más se ve como el linkbuilding agresivo tiene más posibilidad de ser descubierto y las consecuencias más severas.
Seguir trabajando los datos estructurados
Para finalizar con esta serie de consejos basada en el Search Central Live nos debemos enfocar en los «schemas» o datos estructurados. Estos han sido relevantes y lo seguirán siendo, no solo para dar resultados enriquecidos, sino para el propio rendimiento de la web.
En el propio evento defendieron la importancia de los datos estructurados, ya que todos los robots podrán leer las páginas de una forma más fácil con los mismos. Dejaron clara su relevancia cuando afirmaron que «si te preocupa principalmente la búsqueda, me centraría en las características de datos estructurados que se muestran en Search».