Desde hace un tiempo, hemos comenzado a abordar las problemáticas ocasionadas por la desinformación en internet. Las redes sociales, que inicialmente prometían democratizar el acceso a la información, se han convertido en un medio propenso para la difusión de fake news. La rapidez con la que se comparten estas noticias falsas ha dificultado cada vez más que el ciudadano promedio distinga la verdad de la mentira.
En este escenario, hemos visto un resurgir del interés por los medios tradicionales, los cuales, a diferencia de las redes sociales, poseen mecanismos de verificación y responsabilidades editoriales. Sin embargo, la llegada de la inteligencia artificial ha añadido una nueva dimensión a esta problemática. Hoy no solo nos enfrentamos a usuarios malintencionados creando desinformación, sino también a algoritmos que pueden generar contenido periodístico sin intervención humana.
Por un lado, la IA ha sido una herramienta útil en la lucha contra la desinformación, facilitando el análisis de grandes volúmenes de datos para identificar inconsistencias y noticias falsas. Pero, por otro lado, también se ha utilizado para crear información de forma automatizada, sin comprobar su veracidad, lo cual plantea importantes desafíos éticos y morales.
El derecho a recibir información veraz es un principio fundamental en cualquier democracia, y los medios de comunicación tienen la responsabilidad de garantizarlos. No obstante, diversos estudios han indicado que las noticias falsas tienden a difundirse más rápidamente que las verificadas, principalmente porque apelan a las emociones y utilizan un lenguaje atractivo y sensacionalista.
Un caso reciente de esto se dio con la circulación de imágenes falsas generadas por IA durante el conflicto entre Israel y Hamás en 2023. En redes sociales, se compartieron fotografías alteradas que incluso fueron difundidas por figuras públicas, generando confusión y divisiones. Este hecho ilustra cómo la tecnología puede ser utilizada tanto para informar como para manipular.
La desinformación no solo impacta el ámbito político, sino también la ciencia y la salud. Durante la pandemia de COVID-19, fuimos testigos de la proliferación de teorías conspirativas sobre vacunas y tratamientos fraudulentos en las redes sociales. Actualmente, con el aumento de la IA generativa, han emergido deepfakes que distorsionan la realidad, desde declaraciones falsas de figuras públicas hasta audios manipulados que intentan engañar a la población.
Frente a esta nueva ola de desinformación, una posible solución es emplear la misma tecnología que produce noticias falsas para contrarrestarlas. Empresas como Google y Meta han implementado algoritmos de verificación que analizan patrones en la difusión de noticias para identificar posibles fake news antes de que se vuelvan virales. Sin embargo, el éxito de estas herramientas sigue dependiendo de la educación digital de los usuarios y de la responsabilidad en la que incurren los medios de comunicación.
Periodistas robóticos


La automatización en el periodismo ya es una realidad palpable. La agencia EFE, por ejemplo, ha implementado un robot llamado Gabriele que redacta noticias a partir de datos. Este sistema ha mostrado eficacia en la cobertura de temas como deportes, finanzas y meteorología, donde la información se basa en cifras y hechos concretos.
No obstante, aunque los robots pueden generar noticias rápidamente y con precisión, carecen de la capacidad de interpretación y análisis que distingue al periodismo humano. Un caso notable ocurrió en 2023, cuando el medio estadounidense CNET utilizó IA para redactar artículos sobre finanzas, pero se descubrió que varios de ellos contenían errores significativos, lo que condujo a una revisión interna del proceso.
Asimismo, modelos de lenguaje como GPT-4 han avanzado hasta el punto de poder redactar columnas de opinión con un estilo convincente. The Guardian ya experimentó con esto en 2020, y desde entonces hemos visto casos similares en otros medios. Sin embargo, la inteligencia artificial no es infalible y sigue dependiendo de los datos con los que fue entrenada, lo que puede dar lugar a sesgos o reproducir información errónea.
En este contexto, ha surgido un debate sobre la regulación del uso de la inteligencia artificial en el periodismo. Países como la Unión Europea han comenzado a desarrollar normativas para controlar la utilización de IA en la generación de contenido informativo. La transparencia sobre si una noticia ha sido escrita por un humano o por un algoritmo se está convirtiendo en una exigencia ética para muchos medios de comunicación.
Los medios locales
En este escenario de transformación digital, los medios locales mantenemos una ventaja única e insustituible: nuestra cercanía con la comunidad. A diferencia de un algoritmo, entendemos el contexto social, económico y cultural de nuestra región.
Nuestro compromiso con la veracidad y el periodismo independiente nos permite seguir siendo una fuente confiable de información. En tiempos donde la desinformación es abundante y la inteligencia artificial avanza, nuestra misión es más relevante que nunca. A medida que la tecnología continúa evolucionando, una cosa es clara: el periodismo humano, con su capacidad de análisis y su compromiso con la verdad, sigue siendo fundamental.
Con Información de www.elrancaguino.cl