Portada » Casi todas las decisiones que afectan a nuestras vidas están hechas por modelos matemáticos

Casi todas las decisiones que afectan a nuestras vidas están hechas por modelos matemáticos

Entrevista con Raúl Villarroel, decano de la Facultad de Filosofía y Humanidades de la Universidad de Chile.

Por Alvaro Montes
0 comentario

Por: Luis San Martín Arzola
Inteligencia Artificial Chile

Raúl Villarroel es Doctor en Filosofía y Profesor Titular de la Universidad de Chile, académico e investigador del Departamento de Filosofía y del Centro de Estudios de Ética Aplicada. Es el actual Decano de la Facultad de Filosofía y Humanidades desde 2022. Especializado en filosofía contemporánea, bioética y éticas aplicadas, es autor de los libros Bioética. Fundamentos y dimensión práctica (editorial Mediterráneo, 2004), Ética aplicada. Perspectivas de la responsabilidad para la sociedad civil en un mundo globalizado (Editorial Universitaria, 2010), Interesarse por la vida. Ensayos bioéticos y biopolíticos (Editorial Universitaria, 2014), Ética de la investigación científica en Educación. Guía teórica y práctica para investigadores (Editorial OchoLibros, 2019) además de numerosas publicaciones sobre el tema.

En un contexto donde se ha masificado enormemente la inteligencia artificial tras la llegada de Chat GPT en noviembre del año pasado, ¿por qué se le teme tanto a la IA?

Fundamentalmente resulta inquietante porque hasta ahora no ha habido una familiarización efectiva con su naturaleza, posibilidades y alcances por parte de la ciudadanía, cuya conciencia ha estado alimentada por ciertos precursores de la IA que más bien han tendido a presentarla como una amenaza a la integridad espiritual de la humanidad. Ello, porque continúa siendo muy influyente en la mentalidad de la gente la idea de que somos personas y no cosas. Por lo que los desarrollos tecnológicos estimulan negativamente a pensar que nuestra vida avanza hacia procesos y sistemas de cosificación cada vez más aterradores.

En tu opinión, ¿significa la inteligencia artificial una amenaza para la humanidad?

En cierto modo sí lo es, aunque quizás no una amenaza de la envergadura con la que suele ilustrarse el futuro siendo administrado por sistemas inteligentes. La única posibilidad de disminuir ese miedo natural a una posible mutación ontológica de la vida, que ya dejaría de ser natural y se volvería susceptible de administración inteligente no humana, creo que depende de cuán transparente se tornen los sistemas informáticos y cuán claras resultan las finalidades por las cuales se podría legitimar el auspicio de desarrollos semejantes, estando ellas al margen de los intereses del capital y los grupos hegemónicos, que es lo que probablemente más alarme en la actualidad. Esto dado el curso que han adoptado otros desarrollos semejantes anteriores, que también han ofrecido beneficios a la humanidad muy poco constatables a la vuelta de las décadas.

Las regulaciones que anunció recientemente el Parlamento Europeo o la actualización a las leyes relacionadas a la IA en Chile, ¿serán suficientes para contener el avance de esta nueva tecnología? ¿Qué aspectos deben tenerse en cuenta?

Pienso que eso es algo que está por verse. Indudablemente, hará falta una discusión ciudadana mucho más amplia al respecto. No es suficiente con que el tema se recluya en el juicio solo presumiblemente suficiente de la clase de “expertos” en la materia, sin importar que sean ingenieros o científicos, puesto que se trata de un asunto del más puro interés cívico y político, ya que los sistemas de IA tenderán a operar sobre la vida de los sujetos particulares, por lo que deberían tener derecho a expresar su opinión. Mientras más informada esté la gente común al respecto, más válida debería ser cualquier decisión legislativa en relación con este tema.

¿Se puede volver la IA más inteligente que los seres humanos? ¿Cuál es la implicancia filosófica de una deriva como esta?

Podríamos afirmar con muchísima propiedad que aquello que alguna vez se consagró en la historia del pensamiento como “naturaleza humana” y que alimentó las codificaciones jurídicas a lo largo de toda la historia, hoy se vuelve una noción inestable, difícil de seguir sosteniendo irrestrictamente. De hecho, algunos teóricos afirman con toda propiedad que está en pleno curso de expansión una “migración ontológica de lo humano”, porque la anexión de nuestra experiencia mental y de nuestra base fisiológico-corporal a sistemas inteligentes es una realidad cada vez más irrefrenable, que muestra que la naturaleza podría considerarse una noción en vertiginoso cambio en nuestro tiempo.

Hay un sentimiento pesimista en la población y la opinión pública respecto al avance de la inteligencia artificial, sobre todo también por la influencia de las obras en las que se aborda esta temática. ¿Crees que hay ventajas en la integración de la IA en la vida cotidiana?

Seguramente, como ha acontecido con otras innovaciones o desarrollos de índole tecnológica en la historia reciente, la oferta de beneficios es contundente. Por cierto, perfeccionar los sistemas humanos, depurarlos del error y de los sesgos que a menudo los definen es una vieja aspiración que valdría la pena concretar en algún momento. Creo que la única manera de avanzar en esta materia es salvando aquellos aspectos que son los que justifican los temores y las aprensiones que con razón aún prevalecen en la conciencia pública respecto de estos nuevos escenarios por venir.

En tal sentido, creo que habría que resolver dos grandes preocupaciones al respecto: la preocupación por el ocultamiento, es decir, la preocupación acerca de la manera en la cual nuestros datos de base son acopiados y utilizados por estos sistemas. La gente está preocupada porque esto se hace de una forma encubierta y oculta, sin el consentimiento de aquellos que son propietarios de esos datos. Y la preocupación por la opacidad, esta es la preocupación respecto de la base intelectual y racional de los sistemas inteligentes. Existe una preocupación porque estos sistemas operan de formas que son inaccesibles u opacas a la razón y al entendimiento humano.

Generadores automáticos de texto original o programas que crean imágenes inéditas que parecen reales, como los deepfakes de Macron en una protesta o el falso arresto de Donald Trump, nos hablan de que la IA puede difuminar la línea entre lo verdadero y lo falso. ¿Cuáles son las consecuencias de que se pierda esta distinción en la sociedad?

Bueno, creo que frente a estas verdaderas deformaciones de unos desarrollos que aún se encuentran en su punto de partida ya se expresa la principal dificultad que es preciso abordar antes de abrazar de manera ingenua e insulsamente optimista al futuro de la IA. Porque sin duda alguna la borradura del límite entre lo que puede con fundamentos sostenerse como verdadero y aquellos que no es más que su deflación producida por la prevalencia de los intereses económicos, políticos o religiosos, constituye una señal indesmentible del cuidado con que debemos enfrentar este nuevo horizonte que se nos viene encima, por el riesgo de descomposición del orden social que trae aparejada la indistinción entre la verdad y la falsedad. De hecho, ya lo hemos visto recientemente en acción en nuestro propio país con consecuencias más que lamentables.

¿Te parece esta una nueva revolución tecnológica comparable a la democratización de las redes sociales? ¿En qué medida el avance de la inteligencia artificial cambiará el sistema socioeconómico y la vida cotidiana?

Casi todas las decisiones que afectan a nuestras vidas no están hechas por humanos, sino por modelos matemáticos. En teoría, esto debería conducir a una mayor equidad. Supuestamente todos seríamos juzgados de acuerdo con las mismas reglas, sin sesgo. Pero en realidad, ocurre exactamente lo contrario. Los modelos que se utilizan en la actualidad son opacos, no regulados e incontestables, incluso cuando estaán equivocados. Esto deriva en un refuerzo de la discriminación.

Por ejemplo, y esto lo sabemos bien en Chile, si un estudiante pobre no puede obtener financiamiento porque un modelo de crédito lo considera demasiado riesgoso, quedara excluido del tipo de educación que podría sacarlo de la pobreza, produciéndose así un círculo vicioso inescapable. Se podría afirmar entonces que los modelos apuntalan a los afortunados y castigan a los oprimidos. Como dice irónicamente la matemática estadounidense Cathy O’Neil: “Bienvenidos al lado oscuro del big data”.

Dejar un comentario

Una iniciativa de

En alianza con