Como dijo Harvey Dent, el villano de Batman: «O mueres como un héroe, o vives lo suficiente para verte convertido en el villano». Dent se refería a la acumulación de poder a lo largo de toda la vida de Julio César y a su inevitable trágico resultado, pero la frase también podría describir la relación cada vez más tensa de Google con los propietarios de sitios web y la comunidad SEO en general.
Los dos últimos años han sido un torbellino para Google, desde la demanda antimonopolio del DOJ hasta las 10 actualizaciones confirmadas del sistema de algoritmos (incluidas cuatro actualizaciones principales con implicaciones significativas), el lanzamiento reactivo de la Experiencia Generativa de Búsqueda (SGE) en Labs, la accidentada llegada de las Perspectivas Generales de la IA y el polémico crecimiento del contenido de Reddit en la parte superior de las SERP. Casi todas estas actualizaciones y acontecimientos han generado, comprensiblemente, prensa negativa para Google.
Como un rayo caído del cielo, los documentos filtrados esta semana sobre la API de búsqueda de Google parecen haber revelado algunos de los secretos mejor guardados del gigante de las búsquedas. El exGoogler Erfan Azimi se atribuye la responsabilidad de la filtración a GitHub de los documentos de la API de Google del almacén de la API de contenido interno de Google en marzo de 2024, documentos que posteriormente compartió con el respetado experto en SEO Rand Fishkin, quien verificó su autenticidad y dio su opinión. Asimismo, el experto en SEO técnico Mike King revisó miles de páginas de los documentos filtrados y analizó su posible impacto en las funciones y señales de clasificación interna.
Al principio, algunos se mostraron escépticos sobre las filtraciones, pero parecen legítimas tras haber sido analizadas por personalidades de confianza del sector de la optimización de motores de búsqueda, incluidos varios exgoogleadores compañeros de Azimi. A última hora del miércoles, Google respondió con un comunicado:
«Advertimos que no se deben hacer suposiciones inexactas sobre la Búsqueda basadas en información descontextualizada, obsoleta o incompleta. Hemos compartido amplia información sobre cómo funciona la Búsqueda y los tipos de factores que sopesan nuestros sistemas, al mismo tiempo que trabajamos para proteger la integridad de nuestros resultados frente a manipulaciones.»
Con 2.500 páginas de documentación de la API que contienen información sobre más de 14.000 atributos, la filtración describe funciones que nadie fuera de Google sabía siquiera que existían. Preocupantemente, hay muchos datos en esta filtración que contradicen muchas de las declaraciones públicas de Google de los últimos 20 años. Parece, por ejemplo, que los porcentajes de clics afectan a la clasificación, que los subdominios tienen su propia clasificación y que la antigüedad del dominio es un factor de clasificación.
Es posible que se trate de una de las mayores noticias de la historia de la optimización para motores de búsqueda, y aún quedan innumerables preguntas por responder. El propio Google, al igual que los especialistas en SEO de DAC, aconseja utilizar esta información con precaución por varias razones:
En resumen, lo básico no ha cambiado por ahora y los fundamentos de la creación de autoridad siguen siendo relevantes. Hay que crear contenido de calidad que fomente las relaciones, atraiga tráfico cualificado y dé a la gente una razón para compartirlo o citarlo. Generar demanda de búsqueda para aumentar la visibilidad en línea de tu marca sigue siendo la clave del juego.
Sin embargo, hay algunas pistas y consejos que conviene tener en cuenta. La revelación de que Google utiliza datos de clics en sus señales de clasificación, por ejemplo, significa que la optimización para la participación del usuario debe equilibrarse con la necesidad de contenido «útil», con SEO y UX trabajando en conjunto en lugar de competir entre sí.
La filtración no cambiará el hecho de que las estrategias de SEO de DAC se basan en SEO comprobado y fundamental. Nuestros expertos seguirán haciendo hincapié en la importancia de tomar decisiones basadas en datos para crear y distribuir contenido relevante, de alta calidad y «útil» que proporcione grandes experiencias de usuario en el sitio web.
Desde hace un par de años, la percepción pública de Google se está deteriorando. Tras recibir quejas sobre la calidad de sus resultados de búsqueda, el gigante de las búsquedas parece haber perdido la carrera en el campo de la IA después de que ChatGPT le sorprendiera desprevenido (y de que luego fracasara en sus propios lanzamientos de SGE y Gemini). Desde el anuncio de las descripciones generales de IA en Google I/O, han aparecido múltiples ejemplos de respuestas de IA inapropiadas, incluidas respuestas con incitación al odio y consejos francamente peligrosos sobre salud, medicina y finanzas. El despliegue fue tan malo que los usuarios intentaron averiguar cómo excluirse de los resúmenes de IA en 24 horas. Antes de esta filtración, la guinda más reciente del pastel de la polémica fue la aparición de contenidos de Reddit en un lugar destacado para consultas potencialmente sensibles de YMYL (tu dinero, tu vida).
Más que cualquier otra cosa, el mayor problema de Google es la confianza. ¿Ha vivido el gigante de las búsquedas lo suficiente como para convertirse en el villano? ¿Tendrá el mismo destino que Harvey «Dos Caras» Dent en El Caballero Oscuro? Sólo el tiempo lo dirá.
Hasta entonces, Google debe ser mucho más transparente y colaborar más con los propietarios de sitios web y el sector de la SEO. Si crea puentes y se gana de nuevo la confianza con el tiempo, Google podrá deshacer parte del daño que se ha infligido a sí mismo. ¿Serán capaces Bing, Yahoo y otros motores de búsqueda de aprovecharse y robar cuota de mercado mientras tanto? Atentos a este espacio…