doxa.comunicación | 29, pp. 255-274 | 257

julio-diciembre de 2019

Renato Essenfelder, João Canavilhas, Haline Costa Maia y Ricardo Jorge Pinto

ISSN: 1696-019X / e-ISSN: 2386-3978

A pesar de esta popularidad, definir la IA no es una tarea sencilla (Brennen, Howard & Nielsen, 2018; Grant, Seruwagi, & Dodd, 2018; Obozintsev, 2018). La pregunta “¿Qué es la inteligencia artificial?” se ha repetido durante décadas, con res-puestas que varían según la perspectiva adoptada (Martínez-Plumed et al. 2018; McCarthy et al. 2006; Moor, 2006).

Las definiciones de AI se pueden dividir en dos grandes grupos: aquellos que tienen el ser humano como referencia (es decir, inteligencias humanas imitativas) y aquellos que tienen referencias abstractas como “racionalidad” o “eficiencia”, sin que la inteligencia humana sea el parámetro central (Russell & Norvig, 2016).

Para el grupo del paradigma humano, la IA puede ser la automatización de “activities that we associate with human thin-king, activities such as decision-making, problem solving, learning” (Bellman, 1978, p. 12) o, en la conocida fórmula de Kurzweil (1990), “The art of creating machines that perform functions that require intelligence when performed by people” (p.117).

En la perspectiva racionalista, que no tiene al hombre como paradigma, surgen diferentes definiciones de la IA, como “the study of computations that make possible to perceive, reason, and act” (Winston, 1992, p. 5), o como “intelligent behavior in artifacts” (Nilsson, 1998, p. 1). También en esta línea de agente racional, Russell & Norvig (2016) definen la IA como “the study of agents that exist in an environment and perceive and act” (p. 7). El enfoque de agente racional, más común entre los ingenieros en esta área, ha ayudado a impulsar el fuerte crecimiento de la IA en las últimas décadas. En realidad, es más difícil construir máquinas que imiten perfectamente a un ser humano (tal como lo propuso el matemático inglés Alan Turing en su famoso “Imitation Game”), que construir máquinas que resuelvan problemas complejos; o como señalan Russell & Norvig (2016):

AI researchers have devoted little effort to passing the Turing Test, believing that it is more important to study the underlying principles of intelligence than to duplicate an exemplar. The quest for “artificial flight” succeeded when the Wright brothers and others stopped imitating birds and started using wind tunnels and learning about aerodynamics. Aeronautical engineering texts do not define the goal of their field as making “machines that fly so exactly like pigeons that they can fool even other pigeons” (2016, p. 3).

Lo que llamamos simplemente IA abarca una gran cantidad de disciplinas y puede observarse en una amplia gama de aplicaciones. Según Russell & Norvig (2016), algunas de las áreas principales que exploran la IA son: a) vehículos robóticos, b) reconocimiento de voz, c) planificación y programación autónomas, d) juegos, e) lucha contra el spam, f) planificación logística, g) robótica, o h) traducción automática.

Por supuesto, “el periodismo no escapa al proceso de automatización laboral global como consecuencia del desarrollo de la inteligencia artificial, la robótica y las nuevas tecnologías de la comunicación, pero se sostiene que las tareas que requie-ren de habilidades cognitivas son más difíciles de encuadrar en acciones estandarizadas reproducibles por una máquina” (Túñez-López et al, 2018, pp. 756-757).

En el periodismo, las aplicaciones de inteligencia artificial generalmente se centran en los campos del Machine Learning, Natural-language Processing, que incluye cada vez más la transposición automática de textos escritos a orales y viceversa, y la robótica (Marconi & Siegman, 2013), pero los ejemplos todavía son escasos. En un estudio de IA aplicado específicamen-