204 | 29, pp. 197-212 | doxa.comunicación

julio-diciembre de 2019

Inteligencia artificial y periodismo: diluyendo el impacto de la desinformación y las noticias falsas a través de los bots

ISSN: 1696-019X / e-ISSN: 2386-3978

público ante ella, una reacción en que la fuerza de las emociones, multiplicada por la acción de las redes sociales, puede hacer tambalear los cimientos de las democracias modernas.

2.2. Ecosistema de la Inteligencia artificial, algoritmos y bots

En el mundo algorítmico, los algoritmos de las redes sociales suelen ser “adaptativos”, lo que significa que efectúan pe-queños cambios sobre si mismos en todo momento para intentar obtener mejores resultados. “Mejores” en este caso significa más seductores y, por tanto, más rentables. En este tipo de algoritmos siempre hay un poco de aleatoriedad. (Lanier, 2018: 27).

Cuando un algoritmo suministra experiencias a unas personas, resulta que la aleatoriedad que lubrica la adaptación algo-rítmica también puede inducir la adicción. El algoritmo está buscando los parámetros perfectos para manipular el cerebro, mientras que éste, en su intento de encontrar un significado más profundo, cambia en respuesta a los experimentos del algoritmo; juegan al gato y al ratón apoyándose en matemática pura (Ibidem: 28-29).

En este contexto, estados, universidades y empresas de medios invierten grandes recursos en el desarrollo de algoritmos detectores de noticias manipuladas. No obstante, esta tecnología, todavía embrionaria, necesita de detectives humanos (fact checkers) para encontrar la información falsa que circula por la Red. En esta línea, se ha desarrollado la inteligencia artificial de Google, cuya misión es contraatacar a las noticias falsas. La nueva aplicación Google News, disponible en 127 países, se une a las nuevas actualizaciones de inteligencia artificial de Google, incluida la de Google Maps y Google Duplex.

Con esta iniciativa, Google News lanza su sistema de entrega de contenido de inteligencia artificial en un mundo lleno de noticias falsas. Según el citado estudio del MIT, mostró que las noticias falsas tienen un 70% más de probabilidades de ser tuiteadas. En la reciente encuesta del Barómetro de Edelman Trust (2019: 23), el 59% de las personas dijo que no estaba se-guro si alguna historia dada era “verdadera” o no. Según Alison Gow, editora digital en jefe de Trinity Mirror, citada por Lisa Calhoun (2018) “El acceso a información confiable y de calidad debe ser un derecho de cualquiera, dondequiera que viva”.

Lamentablemente, la inteligencia artificial también es utilizada por personas que buscan hacer daño –o por los menos, inquietar– al ecosistema informativo y de las organizaciones de noticias que no atraviesan buenos momentos.

En febrero de 2019, los medios especializados se hicieron eco de un inquietante proyecto: el instituto de investigación Ope-nAI de San Francisco (EE.UU.), una institución fundada por Elon Musk, había construido un algoritmo capaz de redactar fake news. Aunque, el objetivo del proyecto era otro: se trataba de desarrollar un sistema que, entrenado con grandes can-tidades de texto de la web, fuese capaz de traducir textos y responder a preguntas, entre otras acciones. Pero, los responsa-bles pronto se dieron cuenta del potencial que presentaba esta inteligencia artificial para redactar textos falsos y hacerlo de manera creíble. Will Knight (2019) reproduce un ejemplo del funcionamiento del algoritmo en su artículo de MIT Techno-logy Review. Al sistema se le dio la frase: “Russia has declared war on the United States after Donald Trump accidentally …” (Rusia ha declarado la guerra a Estados Unidos después de que Donald Trump accidentalmente…). Y el algoritmo elaboró él solo la continuación de la “noticia”: