¿Un beneficio para los mass media en detrimento de los pequeños creadores?
Desde sus inicios como un simple motor de búsqueda en 1998, Google ha evolucionado para convertirse en el epicentro del ecosistema digital. Sin embargo, con su crecimiento, han surgido críticas y preocupaciones sobre sus prácticas y la forma en que distribuye el tráfico web.
Una observación recurrente es que, a pesar de que un sitio crece en contenido especializado, las visitas desde el buscador de Google no aumentan proporcionalmente.
Esto podría deberse, según algunas hipótesis, a que Google reserva una cuota de tráfico para los medios masivos de comunicación, priorizando sus contenidos en los resultados de búsqueda.
Una tendencia clara en los resultados de búsqueda es la prominencia de artículos de grandes medios de comunicación, incluso cuando estos medios no tienen una experiencia específica o profunda en la temática de la búsqueda.
Es común ver grandes medios comentando sobre el lanzamiento de un nuevo videojuego o proporcionando consejos sobre salud o bricolaje, áreas en las que no son necesariamente expertos.
Este fenómeno puede tener varias explicaciones:
- Autoridad de dominio: Google tiende a priorizar sitios con alta autoridad de dominio, que a menudo son los grandes medios de comunicación. Esto se debe a la percepción de que estos sitios son más fiables y tienen recursos suficientes para producir contenido de calidad. Cosa que es fácil a poco que conozcas las entrañas de cualquier gran medio, sobre la precariedad de los puestos de trabajo de redacción, de la subcontratación a productores masivos, etc.
- Preferencia por grandes medios: Existe la teoría de que Google puede tener acuerdos o una tendencia natural a favorecer a los grandes medios por una cuestión estratégica empresarial, asegurando una cuota de tráfico que les permite mantenerse relevantes en el ecosistema digital, mientras que a cambio las críticas al gigante y su monopolio apenas tienen presencia en las noticias de actualidad.
Y, posiblemente, sea lo primero lo que casualmente provoque lo segundo, de manera muy oportuna y beneficiosa para ambas partes.
La calidad del contenido y el uso de inteligencia artificial
En la búsqueda de maximizar su alcance, muchos medios grandes han comenzado a producir contenido en masa, a menudo utilizando inteligencia artificial. Si bien el uso de IA no es inherentemente negativo, la falta de verificación y contraste de información puede llevar a la publicación de datos incorrectos o irrelevantes.
Ejemplos de esto incluyen referencias a elementos inexistentes en videojuegos o consejos de salud no basados en evidencia científica.
E, insisto, no digo que esté mal hacerlo. Lo que está mal es no verificar y contrastar la información y no darle un último tamiz humano a lo que se publica. Ese es el problema. Este mismo artículo está generado siguiendo un determinado proceso. Primero se escribió un borrador en bruto con las ideas que se trasladaron a ChatGPT para que las pusiera en orden y diera sentido. Luego, el resultado de ChatGPT se llevó al editor de WordPress y fue revisado, modificado, toqueteado y personalizado al extremo por un humano.
Por cierto, Gemini no pudo o no supo o no quizo hacerlo. De hecho me respondió: «No puedo ayudarte porque soy un modelo de lenguaje que no tiene capacidad para entender lo que me estás pidiendo y responder«.
Ejemplos de información incorrecta:
- Videojuegos: Grandes medios comentando sobre personajes o elementos que no existen en los juegos, recomendando armas para una build de Calcharo que no existen o mencionando zonas que no están en el mapa o que le prestes atención al PvP en un juego que no tiene PvP.
- Salud: Resultados en búsquedas sobre consejos de salud basados en plantas medicinales inexistentes o no reconocidas, mencionando estudios que no han sido publicados nunca, universidades que no vas a poder encontrar o nombres de eminentes científicos que aún no han nacido, por no decir que se ha inventado.
- Bricolaje: Instrucciones incorrectas o peligrosas para proyectos de bricolaje, materiales que no son adecuados, procesos imposibles y todo tipo de chapuzas sin sentido, redactadas eso sí de una manera correcta que no te haría sospechar de la basura que estás leyendo a no ser que ya estés metido en ese mundillo.
Obviamente, yo me doy cuenta de estos errores porque estoy haciendo búsquedas de información para crear mi propio contenido o bien porque me interesa la información para ampliar mi conocimiento sobre algo que ya entiendo, conozco y manejo. Es ahí cuando me doy cuenta, pero…
- ¿Qué ocurre cuando no entiendo ni tampoco conozco e incluso estoy empezando a manejar un tema y mi expertice previa es nula?
- ¿Cuánta información falsa, mediocre o basura me habré comido por culpa de Google?
Estas preguntas y otras similares deberían de preocuparnos porque el gigante americano afirma que prioriza la calidad. Pero es falso.
Ahora mismo prioriza la usabilidad porque su gran competidor no es Bing ni el resto de buscadores. Su competidor son las redes sociales. Los usuarios buscan cada vez más información fuera de Google. Lo hacen en Facebook, Instagram o TikTok. Incluso buscan antes la actualidad en Twitter (llámalo X) que en Google.
Google necesita que las webs se pongan las pilas y sean usables, rápidas, agradables y cómodas, no porque su contenido «no tenga valor» como tanto se empeña en señalar erróneamente a través de Google AdSense, sino porque necesita que los usuarios naveguen en las webs.
Las webs son los posts de Google, ya que ésta no tiene contenido propio alojado en sus servidores. Solo enlaces a contenido. Necesita que esos posts generen una buena impresión. Y también saben que la usabilidad es un factor que determina la relación de un usuario con el entorno digital en el que se mueve.
La penalización de contenido especializado y de alta calidad
El efecto colateral de esta priorización es que los blogs y sitios web más pequeños, a menudo con contenido más especializado y de mayor calidad, son penalizados en los resultados de búsqueda.
Estos sitios, gestionados por expertos o entusiastas con un conocimiento profundo del tema, ven cómo sus contenidos son relegados en favor de artículos más generales y menos precisos de los grandes medios.
Para los creadores de contenido que desean aumentar su tráfico, centrarse en la «long tail» o larga cola de palabras clave es una estrategia efectiva. Esto implica crear contenido alrededor de términos de búsqueda más específicos y menos competitivos, que en conjunto pueden atraer un volumen significativo de tráfico.
Es decir, crear contenido para «cómo hacer un bancal de madera» en vez de hacerlo para «bancal de madera».
No obstante, a medida que los mass media detecten esta estrategia, es probable que comiencen a producir contenido masivo centrado en estas keywords largas, replicando el problema a una escala aún mayor. De hecho, estoy seguro que es algo que ya está pasando.
Propuestas de solución
Diversificación de buscadores
Usar y promover buscadores alternativos, como Bing o DuckDuckGo, puede ayudar a diversificar el tráfico y reducir la dependencia de Google. Estos buscadores a menudo tienen algoritmos diferentes que pueden favorecer más el contenido especializado.
De hecho, es un runrún constante en la comunidad SEO que Bing está dando mejores resultados orgánicos (más útiles, más interesantes, de mayor valor) que Google, porque (por ahora) sí se centra en la calidad del contenido y no en la usabilidad.
Y, además, Microsoft no tiene una dependencia de los mass media como la tiene Google. De hecho es muchísimo más fácil encontrar artículos en contra del gigante de Bill Gates que en contra del monopolio de Google.
Es crucial educar y hacer pedagogía a los usuarios sobre la importancia de diversificar sus fuentes de información y utilizar múltiples buscadores para obtener una perspectiva más amplia y variada.
Es decir, nos intentan educar para que verifiquemos fuentes, contrastemos información y estemos preparados contra las fake news (aunque realmente en no pocas ocasiones solo se considera fake new a artículos como éste, que estás leyendo, porque no es conveniente la opinión crítica o reflexiva, sea ésta errada o no).
La diversificación comienza, no en las fuentes sino en los métodos de búsqueda de información. Y en Internet eso nos deriva a que no solo debemos comparar los resultados, además debemos comparar las páginas de resultados entre un buscador y otro, dando preferencia al que resulte más útil. Y en los últimos años no es precisamente Google el que brilla por eso.
Google debe mejorar sus algoritmos para detectar y priorizar contenido de alta calidad, incluso si proviene de sitios más pequeños. Pero esto es soñar con mundos utópicos e idílicos que no existen.
En la realidad física la compleja relación empresarial entre el New York Times y Google, entre El País y Google, entre cualquier gran medio que genera contenidos que es consumido de forma masiva y Google, impone un relato en el que ambos se ven beneficiados.
Google envía mucho tráfico a los mass media. Los mass media ganan mucho dinero a través de Google AdSense y otras plataformas publicitarias intermediarias, pero principalmente de Google AdSense. Así que los medios también dependen del gigante para obtener ingresos. Los medios tratan con mimo y mirando para otro lado a Google.
Pero si seguimos soñando será tan fácil como poner en relevancia, de verdad, a las EEAT y a los Quality Raters, que son varias decenas de miles en todo el mundo, para incluir la verificación de datos e imponer una mayor penalización para contenido no contrastado o incorrecto.
Implementar programas que apoyen y destaquen el contenido de pequeños creadores de calidad podría ayudar a equilibrar el ecosistema digital. Esto sí que es soñar con algo que puede ocurrir de cara a la galería pero no en la realidad.
Google, a través de Google AdSense, dice que ayuda a los creadores pero es mentira. Tienen unas cuantas páginas con un texto extremadamente genérico a las que te remiten una y otra vez por contenido de poco valor, porque ese es su argumento estrella para todo.
Los técnicos de AdSense lo único que hacen es copiar y pegar respuestas estándares en función de un algoritmo que evalúa cosas como si eres un gran creador de contenido o no, algo que ha quedado demostrado con las últimas filtraciones del algoritmo (de más de 2.500 páginas). Realmente no hay nadie detrás que intente ayudar. Solo quieren echar balones fuera para minimizar la entrada de competencia con los grandes medios.
Pero son tan cobardes que nos mienten aludiendo excusas que no son de aplicación o son incapaces de argumentar. Así permiten que los pequeños creadores sigan apostando y postulándose para entrar en el ecosistema, y algunos pasan el filtro porque se debe mantener la esperanza abierta. Pero muchos se topan una y otra vez con ese muro inexplicable.
La hegemonía de Google en el tráfico web y su aparente preferencia por los grandes medios de comunicación plantea desafíos significativos para los pequeños creadores de contenido.
Sin embargo, estrategias como la focalización en la larga cola de keywords y la promoción de buscadores alternativos pueden mitigar estos efectos. En Estados Unidos, por ejemplo, Bing acapara ya más del 30% del mercado. Y estoy convencido que en España, donde dicen las estadísticas que Google acapara más del 90% de las búsquedas, también tiene una fuerte presencia, especialmente en oficinas y centros académicos.
A largo plazo, es fundamental que Google y otros actores del ecosistema digital reconozcan y valoren la importancia del contenido especializado y verificado, asegurando una web más diversa y fiable para todos los usuarios.
O si no se estarán metiendo el DEI por el ojete y nos estarán mintiendo a la cara con absoluta desvergüenza.