Por: Harim Rodríguez D´Santiago
La inteligencia artificial ha irrumpido en el periodismo con una fuerza arrolladora; promete eficiencia, rapidez y hasta creatividad. Sin embargo, detrás de su asombroso potencial se esconde un riesgo latente: la ilusión de que puede reemplazar el rigor periodístico. Por más avanzada que sea la tecnología, la calidad y veracidad de un texto dependen, irremediablemente, de la edición profesional, la investigación previa y el compromiso ético de un periodista.
La IA puede ser una herramienta fabulosa, pero peligrosa cuando se usa sin sentido crítico, pues reproduce sesgos, desinformación y, en el peor de los casos, se convierte en un instrumento de manipulación al servicio de intereses corporativos. Un algoritmo no sale a la calle a entrevistar fuentes, no contrasta datos en terreno ni detecta matices en el discurso de un testimonio. Lo que hace es procesar información ya existente, con todos los sesgos y limitaciones que esta contiene. Quienes programan estas herramientas no son imparciales: responden a líneas de código diseñadas por empresas con intereses económicos y, en muchos casos, políticos con una visión predominante de la derecha. Desde los motores de búsqueda hasta los modelos de lenguaje avanzado, la información que arrojan está filtrada por parámetros que son desconocidos para el usuario común.
El periodismo, en esencia, es verificación. Un artículo generado por inteligencia artificial puede ser coherente, bien estructurado y convincente, pero si no pasa por el filtro de un profesional que cuestione cada dato, estaremos ante un producto potencialmente falso. Ya hay casos de medios que han publicado noticias generadas por IA con errores garrafales, desde citas inventadas hasta estadísticas falsas. La velocidad y el bajo costo son tentadores, pero el precio es la credibilidad.
No es casualidad que los grandes desarrollos en IA estén en manos de gigantes tecnológicos como Google, Meta u Open AI. Estos actores no son neutrales: su modelo de negocio depende de la monetización de datos y la influencia sobre la opinión pública. Cuando una herramienta de IA prioriza ciertas fuentes, omite otras o genera contenido con determinados enfoques, está replicando una visión del mundo útil para quienes la controlan, de eso no tengo dudas.
El peligro al que nos enfrentamos es al creciente uso por cabezas huecas que viven en las redes de la información fácil y sin verificar.