Del SEO al GEO: cuando dejar de perseguir el clic empieza a tener sentido

Del SEO al GEO: cuando dejar de perseguir el clic empieza a tener sentido

Durante años hemos medido el éxito digital en clics, posiciones y tráfico. Hoy ese marco resulta insuficiente. La irrupción de los grandes modelos de lenguaje no elimina el SEO, pero sí lo desplaza de su papel hegemónico y obliga a repensar cómo se construyen la visibilidad, la autoridad y la confianza en un ecosistema de búsqueda cada vez más mediado por la inteligencia artificial.

Del SEO léxico a la búsqueda semántica por entidades

Hablar hoy de la transición del SEO al GEO no es subirse a una ola de siglas nuevas ni anunciar la enésima muerte prematura del posicionamiento en buscadores. Es, más bien, aceptar que el ecosistema de la búsqueda ha cambiado de forma sustancial y que seguimos intentando medirlo con herramientas pensadas para otro escenario. El foro sobre IA aplicada al SEO celebrado el pasado 11 de diciembre en Tabakalera, organizado por SPRI Enpresa Digitala y Mondragón Unibertsitatea, sirvió para poner orden en una conversación que hasta ahora se movía entre la intuición, la experimentación, el entusiasmo tecnológico y una buena dosis de ruido.

Durante años, el SEO se ha construido sobre la búsqueda léxica. Palabras clave, variaciones, long tail y una obsesión casi artesanal por ocupar posiciones cada vez más altas en el SERP. Sin embargo, ese modelo empezó a mostrar grietas con la llegada de la web semántica y termina de resquebrajarse cuando entran en juego los grandes modelos de lenguaje. El foco se desplaza progresivamente de las keywords a las entidades, de la coincidencia literal al entendimiento del concepto. El funnel se invierte: ya no se parte de una palabra para llegar a un significado, sino de un significado para, si es necesario, aterrizar en una formulación léxica concreta.

El contenido como huella digital y no como simple generador de tráfico

Este cambio tiene consecuencias profundas en la forma de producir contenido. Una de las ideas señaladas durante el foro fue que el blog, lejos de perder relevancia, la recupera, aunque ya no pueda generar el mismo volumen de tráfico que hace una década. Su función ha mutado. El contenido editorial, los PDFs, las fichas técnicas, los catálogos y las referencias externas forman hoy parte de una huella digital que no solo consumen las personas, sino también los LLMs. Para estos sistemas, la estructura, la claridad y la coherencia del contenido son tan importantes como lo fue en su día la densidad de palabras clave.

El resultado es paradójico. Se pierden clics, pero se ganan decisiones mejor informadas. Quien llega a la web lo hace con un nivel de conocimiento previo mucho más alto y con una intención más definida. El tráfico deja de ser un fin en sí mismo para convertirse en una consecuencia secundaria de algo más relevante: la capacidad de una marca para aportar contexto y criterio.

De competir por posiciones a competir por aparecer en respuestas

En este nuevo escenario ya no competimos exclusivamente por posiciones en Google. Competimos por aparecer en las respuestas. Respuestas que pueden generarse en buscadores tradicionales con AI Overviews, en chatbots, en marketplaces o incluso en redes sociales. El posicionamiento deja de ser una fotografía estática para convertirse en una probabilidad.

Además, el efecto long tail no solo se mantiene, sino que se amplifica. Cada prompt es único, incluso cuando se formula de manera idéntica, y el resultado depende tanto del contexto como de la calidad de la pregunta. El contenido deja de optimizarse para una consulta concreta y pasa a formar parte de un entramado de referencias que la IA combina y reinterpreta constantemente. ¿Esto que significa? Que dos usuarios con un mismo prompt van a obtener respuestas diferentes. La clave consiste en estar en el Top of «AI-mind», si se me disculpa el neopalabro. (Creo que lo he vuelto a hacer 😩)

Información abierta, activos accesibles y documentación preparada para la IA

Este cambio obliga a revisar uno de los grandes dogmas del SEO clásico: la retención de la información. Bloquear catálogos técnicos tras formularios, pedir un email para acceder a documentación básica o dosificar el conocimiento empieza a ser contraproducente. Si la IA no puede acceder a tus activos, simplemente no existes para ella. La documentación técnica, las fichas de producto, las preguntas frecuentes o los contenidos estructurados dejan de ser un complemento y se convierten en infraestructura básica. No se trata de repetir una palabra clave, sino de liberar conocimiento de forma comprensible, accesible y reutilizable, tanto para personas como para sistemas automáticos. ¿Quién va a gobernar ahora, dentro de las organizacones, la información liberada? Esa es una reflexión que la digitalización del conocimiento y la construcción de la entidad nos va a obligar a hacer para gestionar de manera adecuada la reputación corporativa.

Reputación, consenso y autoridad en un entorno generativo

En paralelo, la reputación online adquiere un peso todavía mayor. Los modelos de lenguaje tienden a ofrecer respuestas de consenso, lo que convierte las reseñas, los testimonios y las menciones externas en un factor estratégico. Ya no basta con declararse experto; es necesario ser reconocido como tal por terceros. Si la IA no te recomienda, la pérdida de visibilidad es real, aunque tu web siga “bien posicionada” según los criterios tradicionales. En este contexto, el SEO no desaparece, pero sí pierde su centralidad absoluta. Sigue siendo la base sobre la que se alimentan los sistemas de IA, pero debe adaptarse a perfiles muy distintos y priorizar contenidos informativos que resuelvan problemas antes de intentar vender soluciones.

Menos hype y más contexto en un mercado que sigue mirando a Google

Conviene introducir algo de calma en el relato. El hype sobre la importancia de las consultas directas sobre los LLM’s existe y se está explotando. Los datos muestran que Google mantiene una cuota de mercado aplastante y que, entre 2022 y 2025, apenas ha cedido algo más de un tres por ciento. La mayoría de los usuarios siguen recurriendo al buscador tradicional y lo seguirán haciendo durante bastante tiempo. La IA no sustituye el ecosistema de búsqueda, lo amplía. De hecho, hacerse un hueco en las AI Overviews pasa por generar contenido informativo de calidad. No se posicionan zapatillas deportivas, se posiciona una guía previa para preparar un maratón. La clave está en anticipar intenciones de búsqueda y satisfacerlas con rigor.

El riesgo de los contenidos artificiales y el empobrecimiento del conocimiento

Existe, además, un riesgo evidente en la proliferación de contenidos generados por IA sin control editorial. La retroalimentación entre modelos empobrece las respuestas, aumenta las alucinaciones y puede convertirse en un criterio de descarte en los resultados de búsqueda. No es casual que Wikipedia haya desarrollado guías específicas para detectar este tipo de textos, como las recogidas en su documentación pública sobre señales de escritura generada por inteligencia artificial. (Signs of AI writing https://en.wikipedia.org/wiki/Wikipedia:Signs_of_AI_writing) Usar la tecnología sin criterio puede acabar teniendo el efecto contrario al deseado y erosionar la credibilidad de una marca en lugar de reforzarla. Humanizar el contenido es clave para posicionar en los IA Overviews.

El gran problema del GEO: cuando no todo puede medirse

El principal problema del GEO, al menos por ahora, es la medición. No existen métricas claras ni datos en tiempo real que permitan demostrar su eficacia con la precisión a la que nos ha acostumbrado el marketing digital. En cierto modo, volvemos a una lógica más cercana a la de la publicidad en prensa o televisión, donde el impacto es real, pero difícil de atribuir con exactitud. Esto no invalida el modelo, pero obliga a cambiar la forma de evaluar resultados y a asumir una cierta pérdida de control sobre el tráfico y la atribución directa. Y desde el punto de vista de los que vivimos de esto, nos complica demostrar con cifras que nuestro esfuerzo está produciendo resultados a corto, algo a lo que se han acostumbrado nuestros clientes. El SEO siempre ha sido una carrera de fondo. El GEO también lo es, y además requiere un acto de fe. Pero o crees, o te quedas fuera. Y llegar tarde a la carrera puede ser no llegar nunca.

El usuario sigue en el centro, aunque el intermediario haya aprendido

La conclusión es menos disruptiva de lo que parece. El usuario sigue siendo el centro. Siempre lo fue. La diferencia es que ahora hay un intermediario que aprende, interpreta y recomienda. Y quien no alimente correctamente a ese intermediario con contenido útil, fiable y accesible, simplemente dejará de formar parte de la conversación.

#SEO #GEO #InteligenciaArtificial #MarketingDigital #EstrategiaDigital #BúsquedaSemántica


Este artículo contiene mis impresiones personales sobre el Foro IA aplicada al SEO

(Tabakalera, Donostia 11-12-25)

Organizan
SPRI Enpresa Digitala
Mondragón Universitatea


Ponentes
Fernando Maciá, fundador y CEO de Human Level.
Juan González, consultor SEO especializado en ecommerce y fundador de USEO.
MJ Cachón, jefa de la tripulación LAIKA.
Lorena Romero, SEO Manager de Puma Europa.

Web con las ponencias del evento
https://foro-ia-aplicado-web.lovable.app/

Principios básicos del SEO on-page

Principios básicos del SEO on-page

El SEO on-page es una técnica de optimización de motores de búsqueda que se enfoca en optimizar las páginas individuales de un sitio web para mejorar su visibilidad y poder «ranquear» de la mejor manera posible en las páginas de resultados de búsqueda (SERP). Estos son los principios básicos del SEO on-page:

  1. Frase clave: Es fundamental elegir una frase clave relevante para cada página y asegurarse de incluirla en el título, la descripción y el contenido de la página. La palabra clave debe ser específica y relevante para el contenido de la página, y debe estar presente en la URL, el título y el encabezado.
  2. Contenido de calidad: Es importante que el contenido de la página sea de calidad y relevante para los usuarios y los motores de búsqueda. El contenido debe ser único, original y actualizado regularmente, y debe proporcionar valor a los usuarios.
  3. URL amigable: La URL debe ser corta, clara y fácil de leer, y debe incluir la palabra clave relevante. Las URL estructuradas y claras facilitan la navegación y mejoran la experiencia del usuario.
  4. Enlaces internos: Es importante incluir enlaces internos en el contenido de la página para ayudar a los usuarios a navegar por el sitio y para mejorar la estructura y la usabilidad del sitio.
  5. Encabezados bien estructurados: Las etiquetas >h1>, <H2>… <H6>, son elementos importantes en el SEO on-page. Indican la jerarquía de los distintos encabezados, como como el título o la descripción. Es importante utilizar etiquetas relevantes e incluir la palabra clave en el título y la descripción para mejorar la visibilidad de la página en los resultados de búsqueda. Sólo puede haber una etiqueta <h1> por página, el resto deben ayudar a entender la jerarquía de la información al robot del motor de búsquedas.
  6. Imágenes y medios: Las imágenes y otros medios deben ser optimizados para mejorar la velocidad de carga de la página y para asegurarse de que sean accesibles a los usuarios y a los motores de búsqueda. Las imágenes no pueden ser leídas por el crawler, por eso es importante que incluyan una etiqueta ALT o texto alternativo.
  7. Mobile-friendly: Es importante que el sitio web sea compatible con dispositivos móviles y fácil de usar en una variedad de dispositivos y tamaños de pantalla. Eso implica que, muchas veces, deba desarrollarse un diseño específico para cada soporte.
  8. Mapa del sitio: Generar un mapa del sitio que proporcione a los motores de búsqueda información detallada sobre todas las páginas, sus relaciones y sus contenidos.
  9. Velocidad de carga: La web debe estar optimizada para ofrecer una velocidad de carga razonable, de lo contrario se vera penalizada. En este sentido, Google cuenta con una importante herramienta para saber el grado de optimización de una web.
  10. Enlaces externos: Contar con una buena estrategia de enlaces externos permite que otras páginas relevantes transfieran autoridad a la nuestra. Puedes encontrar información sobre una buena estrategia de linkbuilding en esta anterior entrada del blog.

En resumen, los principios básicos del SEO on-page son importantes para mejorar la visibilidad y el posicionamiento de un sitio web en los motores de búsqueda. Estos principios incluyen la creación de contenido de alta calidad y relevante, el uso de palabras clave bien posicionadas, la optimización de encabezados, URLs, metaetiquetas y imágenes, la velocidad de carga del sitio web, el diseño responsive y la optimización de la densidad de palabras clave y la legibilidad del contenido. Al aplicar estos principios, se puede mejorar la experiencia del usuario y aumentar el tráfico orgánico hacia el sitio web.

Black Hat: estrategias SEO que pueden ser castigadas por los motores de búsqueda

Black Hat: estrategias SEO que pueden ser castigadas por los motores de búsqueda

El SEO (Search Engine Optimization) es una técnica esencial para aumentar la visibilidad y el ranking de un sitio web en los motores de búsqueda. Sin embargo, existen algunas estrategias de SEO conocidas como «Black Hat» que pueden resultar en una penalización por parte de los motores de búsqueda.

El objetivo siempre es el mismo, posicionarse lo más arriba posible en el listado de resultados de los motores de búsqueda, aprovechándose de ciertas ventanas de oportunidad que en ningún caso resultan beneficiosas para el usuario, que es quien está realizando la búsqueda. Las técnicas de Black Hat incluyen la compra y venta de enlaces, la creación de contenido automático y sin sentido, la clonación de contenido, la manipulación de las palabras clave, el ocultamiento de texto o enlaces, entre otros.

Técnicas de black hat

Las técnicas de black hat SEO buscan aprovecharse de los algoritmos de los motores de búsqueda para mejorar el ranking de un sitio web, pero son considerados engañosos y poco éticos, como por ejemplo los siguientes:

  1. Keyword stuffing: llenar una página con una gran cantidad de palabras clave, a menudo de forma repetitiva, para intentar clasificar más alto en los resultados de búsqueda.
  2. Cloaking: mostrar diferentes contenidos a los motores de búsqueda que a los visitantes humanos para manipular los resultados de búsqueda.
  3. Compra de enlaces: comprar enlaces para aumentar el PageRank y la autoridad de un sitio web sin considerar su calidad o relevancia.
  4. Contenido duplicado: publicar el mismo contenido en varios lugares o crear varias páginas que contienen el mismo contenido para aumentar la visibilidad.
  5. Puerta de enlace: crear páginas de puerta de enlace que contienen muy poco contenido y están diseñadas para atraer a los visitantes a través de palabras clave específicas y luego redirigirlos a otro sitio web.
  6. Texto encubierto: ocultar texto del usuario pero visible para los motores de búsqueda al hacer que el texto tenga el mismo color que el fondo de la página.
  7. SPAM de comentarios: publicar enlaces en los comentarios de otros sitios web para aumentar el tráfico y la visibilidad.
  8. Generación de contenido automático: la generación de contenido automáticamente sin la intervención humana para llenar una página o sitio web.
  9. Intercambio de enlaces: el intercambio de enlaces entre dos sitios web para aumentar mutuamente el PageRank y la autoridad sin tener en cuenta su relevancia o calidad.
  10. Granjas de enlaces: la creación de numerosos sitios web enlazados entre sí para aumentar el PageRank y la autoridad de un sitio web principal.
  11. Relleno de palabras clave ocultas: agregar una gran cantidad de palabras clave en el código fuente de una página web para engañar a los motores de búsqueda sin que se muestren en la página real.
  12. Redes de blogs privadas: la creación de una red de blogs privados para vincular y promocionar un sitio web principal sin tener en cuenta su calidad o relevancia.
  13. Uso de etiquetas de título engañosas: utilizar etiquetas de título engañosas que no coinciden con el contenido de la página para atraer a los visitantes a través de palabras clave populares.
  14. Spam de correo electrónico: enviar correos electrónicos masivos no solicitados con enlaces a un sitio web para aumentar la visibilidad y el tráfico.

Grandes motores de búsqueda, como Google, están constantemente actualizando sus algoritmos para detectar y penalizar las prácticas de Black Hat. Si un sitio web es detectado utilizando estas técnicas puede sufrir una penalización que incluye desde la pérdida de posiciones en los resultados de búsqueda, hasta la absoluta desaparición del mismo. Es importante tener en cuenta que el SEO es una técnica a largo plazo y que las estrategias de Black Hat sólo ofrecen resultados temporales. Es mejor centrarse en técnicas de SEO éticas y sostenibles (White Hat), como la optimización de la calidad del contenido, la generación de enlaces de calidad y la optimización de la experiencia del usuario.

En conclusión, las técnicas de SEO Black Hat son una mala elección para cualquier empresa que busque una presencia sólida y de confianza en Internet. Es importante evitar estas técnicas y enfocarse en estrategias éticas y sostenibles que mejoren la calidad de un sitio web y aumenten su visibilidad y ranking de manera natural.