Septiembre es en Madrid uno de los mejores meses para la hostelería madrileña por ser el mes de los rencuentros entre amigos, familiares y compañeros de trabajo. Es una noche tranquila en una terraza cualquiera. La reunión se alarga hasta entremezclarse las mangas cortas con las rebecas y alguien se pregunta si de verdad prohibirán el tabaco en las terrazas. Tras una ráfaga de respuestas espontáneas e inútiles, la persona que ha hecho la pregunta saca su móvil para buscarlo en internet. Enseguida alza la voz para decir «Sí, es verdad. El Consejo de Ministros aprobó el anteproyecto la nueva ley antitabaco que incluye la prohibición de fumar en las terrazas de bares y restaurantes. Esta medida se aplicará también a otros espacios como piscinas, instalaciones deportivas, parques infantiles, marquesinas y campus universitarios». Nadie se sorprende de la rapidez de la respuesta, pero normalmente se tarda algo más en encontrar la página de un periódico confiable, cerrar los banners publicitarios, leer la noticia y resumirla con nuestras palabras (quizás, tras ese proceso, la conversación ya ha tomado otros derroteros, como suele pasar). Lo cierto es que Gemini, la inteligencia artificial de Google, ha generado una respuesta automática en su vista creada con IA, que aparece en la parte superior de la parte de resultados, y ha ahorrado ese largo proceso.
Las vistas creadas con IA de Google han transformado la forma en la que interaccionamos con la información que recibimos de Internet. Jon Slade, el CEO de Financial Times, ha revelado una disminución inesperada y repentina en el tráfico de sus artículos por parte de los lectores que llegaban a través de motores de búsqueda en internet. El grupo empresarial Daily Mail and General Trust también ha reportado una caída de hasta el 89 % en las visitas a sus páginas web[1].
Más allá del impacto de la IA en el tráfico de clics a través de los motores de búsqueda, así como la posible vulneración de los derechos de autor de periodistas y creadores de contenido, nuestra preocupación debería dirigirse también en la precisión y la veracidad de la información que esta tecnología nos proporciona. Hace un año Google se comprometió a mejorar su modelo de inteligencia artificial después de que esta respondiera disparates, como que “Estados Unidos ha tenido un presidente musulmán, Barack Hussein Obama”[2] o que «Los geólogos recomiendan comer al menos una piedra pequeña al día”[3]. Además, la posibilidad de un resumen impreciso puede suponer un riesgo de desinformación para el usuario promedio que no busca una comprensión real del tema, ni se presta a explorar los enlaces a artículos concretos ofrecidos por Google.
El derecho fundamental a comunicar y recibir libremente información veraz es fundamental en nuestro sistema social y democrático de derecho. Así lo proclama nuestra Constitución en el apartado d) de su artículo 20.1. Sin embargo, la incidencia de la inteligencia artificial puede hacer tambalear el desarrollo que ha hecho el Tribunal Constitucional de esta libertad fundamental, especialmente respecto a su límite intrínseco de la veracidad.
La veracidad que exige el precepto constitucional se ha interpretado como necesidad de veracidad subjetiva. El Tribunal Constitucional ha precisado en múltiples sentencias (SSTC, entre otras, 47/2002, de 25 de febrero; 76/2002, de 8 de abril), que el informante debe actuar con la debida diligencia, contrastando la información conforme con las características de la noticia y a los medios disponibles. ¿Pero puede garantizarse el entrenamiento de la inteligencia artificial para respetar tales exigencias? ¿Puede garantizarse que la inteligencia artificial discierna entre información y desinformación? ¿Puede acaso un sistema de inteligencia artificial actuar con diligencia? Es cierto que la coloquialmente conocida como ‘Ley de IA de la Unión Europea’[4], pretende contribuir a que los sistemas de inteligencia artificial sigan, entre otras cosas, un aprendizaje normativo basado en datos contrastados mediante la creación de Espacios controlados de pruebas para la IA (artículo 57.9.d), pero es imposible que desaparezcan las dudas respecto a la veracidad de la información proporcionada por la inteligencia artificial desaparezcan, al menos en esta etapa tan temprana de su incorporación en los motores de búsqueda.
También es doctrina del Tribunal Constitucional (SSTC 336/1993, de 15 de noviembre, y 41/1994, de 15 de febrero) que “el específico deber de diligencia que incumbe al informador es exigible con diferente grado de intensidad en función de que la noticia se presente como una comunicación neutra, en cuanto procedente de la originaria información de otro medio de comunicación o fuente informativa, de la que simplemente se da traslado, o bien de que se trate de una información asumida por el medio y su autor como propia, en cuyo caso el deber de diligencia para contrastar la veracidad de los hechos comunicados no admite atenuación o flexibilidad alguna, sino que su cumplimiento debe ser requerido en todo su rigor”.
Adquieren, de nuevo, relevancia las respuestas disparatadas de la inteligencia artificial, denominadas ‘alucinaciones’, que se dan cuando un sistema otorga respuestas de manera coherente, pero con datos incorrectos, sesgados o plenamente erróneos[5]. Es fundamental definir el papel que realiza la IA en las vistas creadas de Google, o en cualquier otro sistema análogo, para determinar qué nivel de diligencia se le debe exigir al proveedor del sistema de inteligencia artificial. ¿Se limita la inteligencia artificial a realizar resúmenes de las fuentes que analiza presentándolas con neutralidad? ¿Son las ‘alucinaciones’ problemas del aprendizaje de la IA o de las fuentes utilizadas en su aprendizaje? ¿Se puede equiparar la actividad de la inteligencia artificial a una actividad propia que dé lugar a una responsabilidad del proveedor del sistema?
En definitiva, las vistas creadas con IA de Google han transformado la forma en la que interaccionamos con la información que recibimos de Internet, siendo la protección de la veracidad de la información otro de los múltiples retos legales que la introducción de la inteligencia artificial presenta a los actuales y futuros legisladores. Por esa razón se debe definir de forma precisa el método de aprendizaje de los modelos de inteligencia artificial que se aplican para difundir información, de tal forma que garanticen una información veraz y contrastada, al mismo tiempo que se determine la responsabilidad de los proveedores de estos sistemas.
Sergio Prieto Remón
[1] Sweney, M. (2025, 10 septiembre). ‘Existential crisis’: how Google’s shift to AI has upended the online news model. The Guardian. https://www.theguardian.com/media/2025/sep/06/existential-crisis-google-use-ai-search-upended-web-publishers-models
[2] O’Brien, M. (2024, 31 mayo). Google corrige resúmenes de búsqueda generados por IA tras viralizarse respuestas disparatadas | AP News. AP News. https://apnews.com/technology/google-corrige-resumenes-de-busqueda-generados-por-ia-tras-viralizarse-respuestas-disparatadas-ba7e4d4d20d8ac053fa1fbbee6ecfd88
[3] Robins-Early, N. (2024, 31 mayo). Google to refine AI-generated search summaries in response to bizarre results. The Guardian. https://www.theguardian.com/technology/article/2024/may/31/google-ai-summaries-sge-changes
[4] https://www.boe.es/doue/2024/1689/L00001-00144.pdf
[5] Redacción. (2023, 15 mayo). Qué es la «alucinación» de la inteligencia artificial y por qué es una de las fallas potencialmente más peligrosas de esta tecnología. BBC News Mundo. https://www.bbc.com/mundo/noticias-65606089