“Hay muchas cuestiones que la tecnología per se no puede responder y sobre las que la filosofía tiene mucho para aportar”

Karina Pedace, filósofa y distinguida internacionalmente por sus estudios en ética de la inteligencia artificial, analiza el rol y los alcances que estas tecnologías tienen en la vida cotidiana. Por qué es clave que el Estado asuma un papel preponderante y la importancia de considerar a la tecnología como un producto sociocultural, en esta entrevista libre de algoritmos.

Nicolás Camargo Lescano (Agencia CTyS-UNLaM)- Antes de empezar este artículo, probé preguntarle al ChatGPT “qué era la filosofía”. “La filosofía es una disciplina intelectual que busca comprender y explorar cuestiones fundamentales sobre la existencia, el conocimiento, la realidad, la moral, la mente y el lenguaje”, me respondió. Al menos estaba bien encaminada.

***

Casi sin darnos cuenta - ¿o sin querer hacerlo? - de un tiempo a esta parte las tecnologías de inteligencia artificial (IA) se volvieron herramientas prácticamente “indispensables” para la vida cotidiana. Con sus algoritmos influyen en una amplia variedad de decisiones, que van desde las fuentes elegidas para informarse acerca de las noticias del día hasta el próximo restaurante para ir a cenar…o cuál será nuestra próxima cita romántica.

El terreno, que en principio parecería ser exclusivo de las matemáticas y las ingenierías, es, en realidad, también un campo fértil para la reflexión y el espíritu crítico de las ciencias sociales y humanidades. En ese camino está la doctora Karina Pedace, investigadora de la Universidad Nacional de La Matanza (UNLaM), quien, junto al Grupo de Investigación de Inteligencia Artificial, Filosofía y Tecnología (GIFT), se encarga de reflexionar, desde una perspectiva analítica acerca de los alcances de la IA y el diseño de sistemas tecnológicos.

“El concepto de IA se acuñó en la década del ‘50, pero está bueno poder desagregar de qué hablamos cuando hablamos de “inteligencia”, qué significa su carácter ‘artificial’, un aspecto que muchas veces lo que hace es opacar o esconder la dimensión material y las consecuencias ambientales y humanas que esta inteligencia puede tener”, explica Pedace, doctora en Filosofía, en diálogo con la Agencia CTyS-UNLaM.

Distinguida internacionalmente en 2022 como una de las “100 Brillant Women in AI Ethics”, Pedace analiza el papel de las universidades en este debate acerca de los vínculos entre tecnología y sociedad, la relevancia de contar con una ciudadanía alfabetizada digitalmente y por qué los mundos posibles sobre los que nos invita a pensar el arte pueden ser herramientas valiosas para analizar algunas de las problemáticas del orden ético y político. “Hay muchas cuestiones que la tecnología per se no puede responder y sobre las que la filosofía tiene mucho para aportar”, asegura la investigadora del Departamento de Humanidades y Ciencias Sociales de la UNLaM.

¿Dónde cree que reside, actualmente, el mayor desafío en torno a las IA y este tipo de nuevas tecnologías?

Creo que parte del desafío es sacar la discusión fuera de los “intramuros” académicos para empezar a dar lugar a un debate más amplio, donde participen organizaciones de la sociedad civil, organizaciones de base y el Estado mismo…es decir, necesitamos un debate polifónico. Y, a la vez, tratar de buscar cierto equilibrio reflexivo, sin caer en los polos de la dicotomía clásica. Porque por un lado está la tecnofobia, con una recusación acrítica de toda innovación, y, por el otro, está la tecnofilia, con una fiebre celebratoria irreflexiva que no tiene en cuenta el impacto en las vidas humanas y no humanas, y, además, en un planeta cada vez más asediado por distintas cuestiones. Entre ellas, por el tipo de extractivismo que está en la base de estos desarrollos tecnológicos.

El Grupo de Investigación de Inteligencia Artificial, Filosofía y Tecnología se encarga de reflexionar, desde una perspectiva analítica acerca de los alcances de la IA y el diseño de sistemas tecnológicos. Foto: gentileza de la investigadora.

En sus trabajos menciona la importancia de pensar a la tecnología como un producto sociocultural…

Esa es una cuestión crucial. Está instalada la expresión a propósito de que la tecnología “no es buena ni mala” sino que es valorativamente neutral y depende de cómo se la use. En realidad, esta conceptualización es una trampa, porque impide ver que la inteligencia artificial está moldeada desde su misma génesis y diseño por la sociedad y sus valores y atraviesa nuestra vida cotidianamente: nos recomienda qué película ver en algún servicio de streaming, nos muestra determinadas oportunidades laborales (y no otras), gravita en la decisión de nuestro destino de turismo, entre tantas otras instancias. La clave aquí es quedarse con la sola dimensión matemática del algoritmo. Si se lo piensa como un mero constructo matemático, formal, es más difícil vincularlo con los valores que conlleva.

Pero hay una cuestión más de fondo…

Sin duda. Hay una dimensión sociotécnica, alimentada y entrenada por datos que, como usuarios, producimos continuamente y que espejan muchos de los valores que tenemos como cultura. Entonces, ya desde la instancia de la génesis y el diseño, las tecnologías llevan inscriptos valores que, en muchos casos, replican inequidades y desigualdades históricas que nos aquejan y que corren el riesgo de exacerbarse. Poner sobre el tapete el carácter fuertemente cargado de valores de la tecnología es central para advertir sus dimensiones éticas.

¿Cuál es, en esta dinámica, el rol de los Estados?

Si pensamos que la tecnología de la IA está omnipresente y con impacto aquí y ahora, tanto en el trabajo, la salud, así como en la educación o en el arte -por mencionar solo algunas esferas-, vemos que hay un montón de implicancias sociales nada menores. Si dejáramos la discusión librada al mero interés de las corporaciones hegemónicas -que, además, son propietarias de estos sistemas de IA- sin que los Estados se involucren, quedaríamos muy desguarnecidos. También me parece importante sumar a esta visión una reflexión situada, y es que estamos en América Latina. En este sentido, iniciativas como la Declaración de Montevideo son claves. Allí se hizo una exhortación para que tomemos parte informada en el debate acerca de las consecuencias que la IA trae consigo, para, entre otras cosas, dejar de ser meros productores de datos que luego son cooptados por las corporaciones. Es necesario asumir el desafío de la responsabilidad de tener gobernanza y decidir el tipo de IA que queremos para nuestra región. En resumen, es fundamental el rol del Estado en materia de regulación, que vele por el cumplimiento del respeto al marco de derechos humanos.

¿Y en cuanto al papel de las universidades?

Las universidades tenemos un rol central en el sentido de reforzar el pensamiento crítico. Por ejemplo, ¿cómo impacta esta tecnología en nuestras subjetividades? ¿Qué tipo de derivas tiene en la vida pública? ¿Supone una amenaza para las democracias?  Retomando el punto anterior, es fundamental un Estado presente y usuarios con mucha capacidad de reflexión, que se fomente que la sociedad se alfabetice digitalmente. Es central para empoderarnos, analizando y evaluando en detalle los matices, pros y contras de estas tecnologías.

Más allá de sus tareas académicas y como investigadora… ¿es de consumir series, libros o productos culturales sobre la temática?

¡Totalmente! Parte de lo que podemos poner sobre la mesa es, también, cierta concepción de la filosofía misma. Muchas veces se la piensa demasiado vinculada a la ciencia en detrimento de sus vínculos con el arte. De hecho, muchos filósofos y filósofas no verían límites muy claros entre la filosofía como cierto estilo y la actividad artística per se. El arte es un gran proveedor para nuestra imaginación, nuestra creatividad, para pensar escenarios totalmente alternativos frente a la realidad efectiva. Hay un montón de ficciones que nos proponen ensayar alternativas posibles allí donde parece que no las hay.

¿Qué ejemplos se pueden mencionar, en esa línea?

Películas como Blade runner, 2001: odisea del espacio, Her o la serie Black Mirror -por nombrar sólo algunas- instalaron la discusión sobre muchas de las inquietudes que nos atraviesan, porque hablan del impacto de la IA en nuestra propia concepción de lo humano, en el mundo del trabajo, de la educación, del arte… Por ejemplo, la irrupción de la IA vino a poner en jaque hasta dónde la creatividad sería privativa de lo humano, cómo impacta este tipo de desarrollo tecnológico sobre nuestras subjetividades y gravita sobre nuestros deseos, cómo impacta a propósito del consumo. De hecho, vemos su influencia a través de las redes sociales en nuestras relaciones interpersonales, en el  fenómeno cada vez más extendido de la desinformación y en las dificultades que tenemos para discernir lo que es verdadero de lo que es meramente verosímil …Entonces, con la cantidad de consecuencias que tiene en nuestras vidas, me parece esencial que podamos usar nuestras capacidades críticas para profundizar nuestra reflexión sobre cómo, para qué, por qué y en beneficio de quiénes tiene lugar este tipo de tecnología.

***

Cuando terminé este artículo, volví al Chat GPT, esta vez para consultarle si era consciente de que era una inteligencia artificial. “No, no tengo conciencia ni autoconciencia. Aunque puedo procesar y generar respuestas en función de patrones y datos aprendidos durante mi entrenamiento, no tengo experiencias, emociones ni consciencia”, respondió. ¿Será?