Mark Coeckelbergh, el filósofo de la tecnología: “Antes confiábamos la vida eterna a la religión, ahora a la IA”

Mark Coeckelbergh (Lovaina, Bélgica, 1975) es uno de los mayores expertos mundiales en la filosofía y la ética de la tecnología. Un tema ya de por sí complejo, pero que se complica aún más cuando choca con la Inteligencia Artificial (IA), una tecnología que no deja de evolucionar a pasos agigantados, pero sobre la que aún hay muchas dudas.

Coeckelbergh la ha estudiado a fondo. Conoce todos los retos que plantea para la sociedad, y considera importante que la ciudadanía reflexione sobre qué quiere hacer con la IA. Porque al fin y al cabo, dice, es una tecnología con muchísimo potencial y algunos riesgos, pero se convertirá en lo que nosotros queramos que se convierta. Tenemos el control sobre ella.

Autor de 17 libros, es profesor en la Universidad de Viena (Austria) y en el Instituto de Filosofía de la Academia de Ciencias de Praga (República Checa). Fue también presidente de la Sociedad para la Filosofía y la Tecnología y formó parte del grupo de especialistas de alto nivel en IA de la Comisión Europea.

Coeckelbergh lleva alrededor de tres años escribiendo sobre la inteligencia artificial y afirma que, los principales retos éticos siguen siendo los mismos, a pesar que en los últimos meses la IA ha sido tema de conversación constante. “Por ejemplo, cómo podemos garantizar que exista responsabilidad humana respecto a la IA, o cómo podemos garantizar que los datos que utiliza no son privados, y realmente la sociedad se los ha querido ceder a las empresas. Lo que ha cambiado es que la IA ha dado un gran paso gracias a los grandes modelos lingüísticos. Así que hace un trabajo mucho mejor en cuanto a la producción de textos, y de manera más independiente”.

Con el desarrollo de la inteligencia artificial han aumentado la cantidad de información disponible en internet producidas por estas. Aunque desde hace años nos hemos encontrado con la problemática de la desconfianza de las informaciones que hallamos, actualmente, están más sujetas a manipulaciones. Al respecto el filósofo hace la interrogante sobre quién es el responsable “¿La empresa que ha desarrollado la IA o el usuario?”.

Al preguntarle a Coeckelbergh sobre si cree que el miedo a esta tecnología tiene argumentos sólidos, respondió los siguiente: “Tenemos que mirar a largo plazo para intentar saber qué podría hacer esta tecnología por la sociedad. Pero no creo que ese pánico tenga argumentos sólidos, porque la IA tal y cómo la conocemos, e incluso si se desarrollara más y adquiriera más poder, dependería de lo que los humanos hicieran con ella.  Por eso no compro esos argumentos. Es más importante mirar las cuestiones políticas y de poder. ¿Quién la controla? ¿Quién tiene cierto interés en utilizarla para determinados fines? ¿Qué quieren hacer con ella las empresas y qué están haciendo ya los gobiernos? Estas cosas son importantes preguntárselas”.

Para el filósofo la IA es problemática desde el punto de vista ético al igual que otras tecnologías. “Por ejemplo, la IA se utiliza a menudo en plataformas sociales y medios digitales, como X o Facebook. Ahora nos estamos centrando sobre todo en los problemas de la IA, a los que se les está dando mucho bombo. Pero hay otros problemas que tenemos con esas plataformas, que ya están dando forma a nuestras vidas y nuestros trabajos. Ya han cambiado cosas. Así que creo que tenemos que mirar en general a todas las tecnologías digitales, y no sólo a la IA”.

P: ¿Por qué es importante debatir sobre la ética de la IA, y de la tecnología en general, aunque no haya acuerdo sobre las conclusiones?

R: Me pregunto si es cierto que no hay acuerdo. Creo que cada vez hay más consenso entre los expertos y los responsables políticos sobre cuáles son los problemas y qué principios éticos son los más importantes. El reto actual es ver qué significa todo esto. En concreto, ¿cómo vamos a regular la IA?¿Necesitamos nuevas leyes? ¿Y de qué tipo? Y luego ver cómo aplicar la ética a nivel técnico. Esas son las preguntas más prácticas. Y sí, necesitamos trabajar mucho más en ello y debatir más. Pero creo que, en general, los expertos no están tan en desacuerdo.

Los principales desacuerdos están en los medios de comunicación, cuando encontramos este tipo de fantasías sobre la IA. Entonces sí parece que nunca podremos llegar a un consenso respecto a estas cuestiones. Pero cuando tenemos un debate democrático formado por expertos podemos ir más allá de esto. Y plantearnos realmente cómo podemos mitigar los riesgos de la IA. Creo que esa es la dirección en la que debemos ir.

P: Usted asegura que muchos de los retos éticos de la IA son los mismos que tienen otras muchas tecnologías. Pero dígame algún reto ético que sea exclusivo de la IA.

R: La responsabilidad o la privacidad no son debates únicos de la IA. Pero creo que la explicabilidad si es algo único de esta tecnología. Porque cuando usamos el aprendizaje profundo ya no es posible explicar las recomendaciones o las decisiones de la forma en la que normalmente lo hacemos con los humanos. Y esto es un problema.

Además, la forma en la que los grandes modelos de lenguaje funcionan es única. Y el impacto que tienen en la escritura o la generación de imágenes también lo es, porque no está claro quién tiene realmente los derechos de autor. Tampoco está claro el estatus epistémico, porque no sabes qué es realmente información veraz, errónea o si es directamente basura. Estos son problemas únicos creados por las formas contemporáneas de IA. Y, por supuesto, debemos centrarnos en ellos en la ética y la política.

P: Hábleme de la conexión que establece entre la IA y la ciencia ficción, las religiones y la filosofía.

R: En nuestra cultura tenemos ciertos patrones de pensamiento. Por ejemplo, en las religiones monoteístas tenemos la aspiración de alcanzar la vida eterna. Es algo muy humano y muy profundo, pero que también se ve en tecnologías como la IA, que se relacionan con esas fantasías de ciencia ficción en las que vivimos más tiempo. Son cosas que solíamos esperar de la religión y ahora esperamos de la IA.

Con el pensamiento religioso también identificamos un fin de los tiempos y un nuevo mundo que surge después. Y eso se ve en la forma en que la gente habla de la IA a largo plazo. Esta idea de que va a crear un nuevo mundo. Que habrá un punto de no retorno, donde todo cambiará. Yo veo un montón de patrones así, que se encuentran en la religión y la cultura occidentales y que se manifiestan ahora en la forma en que pensamos acerca de la IA.

P: ¿Le gustaría que algún día llegáramos a alcanzar la Inteligencia Artificial General?

R: No veo para qué la necesitaríamos, porque es básicamente una imitación de la inteligencia humana y eso ya lo tenemos. Lo que hay que hacer como sociedad es utilizar la IA específica para que nos ayude en cosas concretas en las que no somos tan buenos. Por ejemplo, es muy útil para trabajar cuando tienes muchos datos. O en medicina. Ahí sí puede desempeñar un papel positivo. 

Pero no es sólo que no necesitemos la IA general. Es que filosóficamente también es muy cuestionable pensar si algún día podremos realmente tenerla. Ahora con estos modelos de lenguaje mucha gente tiene la esperanza de que pueden ser un primer paso para alcanzarla. Pero no debemos olvidar que la forma en la que trabajan estos modelos es muy diferente de la inteligencia humana, y tiene sus propias limitaciones. Entonces, ¿se pueden comparar realmente con nuestra inteligencia?

Creo que lo que sucederá es que utilizaremos la IA específica para que nos ayude en algunas cosas. Pero debemos asegurarnos de que todavía somos nosotros los que decidimos para qué se utiliza. La ética debe ser parte del desarrollo y del uso de estas tecnologías para que las utilicemos para el bien común y no sólo para enriquecer a unos pocos.

Fuente: https://acortar.link/0iBvPG