Joaquín G. Weil sube las escaleras del portal de Moreno Monroy lentamente. No es óbice para que sus pisadas sobre el claro mármol rompan el silencio que reina en el edificio. La Catedral de Málaga monopoliza las vistas de los numerosos balcones con los que cuenta el habitáculo. «Así comprobamos la hora aquí», bromea señalando el reloj de la torre. Sentado sobre una colchoneta y en posición del loto, sonríe, preparado para que la inteligencia artificial comience a dejarse ver por la sala. El filósofo aboga por aplicar la inteligencia artificial para el bien común y la aplicación de la ética en el desarrollo de esta tecnología, temas que se tratarán en el curso de verano de la Universidad de Málaga que se celebrará estos días. «No es posible que las máquinas se desarrollen como ellas quieren», incide Weil.

Siendo la filosofía su especialidad, ¿qué conexión ha descubierto entre ésta y la inteligencia artificial?

Tiene que ver con los valores universales que pretende establecer MiVU. Podemos fijar un avance de cuáles son esos valores, de si son realmente universales y aceptables por las personas. Para tener esa certeza científica hace falta un estudio con una gran base de datos. Eso lo posibilita, hoy por hoy, el big data y la inteligencia artificial.

¿Un estudio exclusivo para el big data y la inteligencia artificial?

Serviría también para una valoración de cualquier otra tecnología. En nuestro tiempo, por ejemplo, las de la comunicación (web, móviles€), pero claro, en otros tiempos podría haber sido la escritura, que no deja de ser una tecnología. No olvidemos lo que supuso en Mesopotamia la aparición de la escritura, una repercusión semejante a lo que hoy es la inteligencia artificial para nosotros. Esta debe reflejar los valores humanos.

¿Ese sería el gran reto? ¿Que la robótica consiguiera imitara al ser humano?

Hay diversas opiniones. Se puede pensar que la inteligencia artificial podría desarrollar un código ético propio. Pero no olvidemos que es una creación humana, por más que la dotemos de autonomía.

Por lo tanto, no podría sentir o actuar como lo hace el ser humano.

En ciertos casos es imposible. Sentir, por ejemplo, una máquina no podrá sentir nunca, puesto que hace falta un cuerpo para ello. Es una cuestión importante, ya que una de las bases de la ética es el sentimiento. Si una máquina no puede sentir, hay que dotarla de algo semejante para que sus decisiones tengan un carácter humano, que no sean inhumanas. Eso es algo que no va a desarrollar por sí sola.

Porque ya lo hace el ser humano por ella.

Exacto. Porque, aunque fuera una superinteligencia, la inteligencia y la ética son cosas distintas. Para una persona, un comportamiento egoísta puede ser inteligente; pero en una población mayor, no, sería perjudicial para el conjunto. Si un país desarrolla un sistema bélico utilizando inteligencia artificial, sería inteligente, pues se defenderían mejor. Pero a nivel mundial, no lo sería. Cuando la inteligencia piensa en el bien común, sería de carácter ético.

Ese supuesto ejemplifica el sentir de la ciudadanía, esa desconfianza hacia este mundo, a veces considerado perjudicial.

Puede generar desconfianza pero casi nadie desconfía de coger el móvil y tomar una dirección o al utilizar el traductor. Llegados a este punto, es necesaria la ética, porque esa herramienta tan poderosa puede usarse para beneficios particulares en lugar de para el ciudadano y podría derivar en perjuicio o manipulación general.

¿Qué se puede hacer ante esa posibilidad?

Se solucionaría dándole voz a la ciudadanía, que es quien mejor defenderá los intereses ciudadanos. Para ello, debe ponerse a trabajar en junto con entidades e instituciones. Grandes compañías han invertido cantidades enormes de dinero en que inteligencias artificiales jueguen con ventaja en determinados juegos (el ajedrez, por ejemplo); pero ¿cuánto dinero se está empleando en hacer un estudio ético de la inteligencia artificial? Desde luego, no tanto o no tan publicitado. Esa inversión económica y social es necesaria. El axioma sería: hay que sincronizar el salto tecnológico con una elevación del grado de conciencia de la humanidad, porque estamos desarrollando instrumentos muy poderosos.

Sin embargo, lo que no estamos desarrollando es el conocimiento de la ciudadanía en ello.

Para que la ciudadanía tome parte en esto, es necesaria una información, y ese es el sentido de eventos como el que organizamos. Esto es un fenómeno ético bien conocido: cuando las personas entran en diálogo sobre ética, inmediatamente el nivel de concienciación aumenta.

¿Por ejemplo?

Cuando se elabora la Declaración de la Independencia de Estados Unidos, en ellos se plasmó que los seres humanos eran libres e iguales ante la ley, pero no lo eran, las mismas personas que firmaron esos tratados tenían y comerciaban con esclavos. Entonces, una vez establecido el diálogo y debate, llegó a su fin la esclavitud. Cuando la humanidad se pone a pensar, se llegan a conclusiones lógicas y beneficiosas, a consensos, es decir, sentir en común. Es importante reparar en que la inteligencia artificial es humana, y el ser humano debe canalizarla, dotarla de un objetivo y ordenarla.

¿Considera entonces que la inteligencia artificial no podría crear por sí misma como lo hace ya la humana?

No es fácil hacer una perspectiva de futuro, pero una pista sobre ello nos la da el ser humano, el origen de esa creación. No es posible que las máquinas se desarrollen como ellas quieren. Muchas personas están poniendo su espíritu en esas máquinas, y las empresas y gobiernos destinan fondos; por tanto, es un proceso dirigido por el ser humano.

Volvemos al principio, a la diferencia entre lo inteligente que puede ser un comportamiento egoísta en lo particular y lo poco inteligente que resultaría a nivel colectivo.

Precisamente por esa razón habría que hacer un estudio del ser humano para comprender el futuro de la máquina. ¿Una máquina puede crear? Ya ocurre, pero hay un ser humano detrás que la está programando para ello. También por esa razón, no es buena idea que el ser humano construya máquinas sofisticadas destinadas a la industria bélica. Beneficia en lo personal, pero no a la humanidad. Cada salto tecnológico ha sido una catástrofe ecológica, como lo fue el simple y primitivo hecho de unir una piedra afilada a un palo, que llevó a la extinción de los mamuts, por ejemplo.

¿A mayor ambición y evolución, más concienciada debería estar la humanidad?

Exacto. La buena inteligencia artificial no puede dedicarse a una depreciación de los recursos naturales; sí al cuidado del medio ambiente, por ejemplo. Depende del ser humano que vaya hacia un lado u otro. Por eso convocamos eventos como este curso.

¿Qué puede adelantar sobre el encuentro?

Un punto importante sobre la iniciativa es que el ciudadano puede participar, ya que hay turno de preguntas. Cuenta también con un gran plantel de expertos, como catedráticos de robótica, especialistas en empresas sobre inteligencia artificial, miembros de grupos de sabios del Gobierno español, etc.

Uno de los temas del evento es el del mercado laboral y las nuevas profesiones; pero, ¿cuáles cree que pueden estar en riesgo de desaparecer?

No es algo fácil de saber. En ocasiones, algunas profesiones muy relacionadas con las tecnologías han sido automatizadas, y en otras, profesiones muy antiguas subsisten, como la de ser profesor. Es importante que el ser humano tenga un lugar, y eso dependerá de él.

¿Qué otros temas se tratarán en el encuentro?

El acto se estructura en torno a cinco temas centrales. Aparte del mercado laboral y nuevas profesiones, otros como la prospección de futuro, la conducción autónoma o la transición energética también se debatirán. Otra cuestión muy importante también es la de la seguridad y la privacidad, conceptos relacionados con los datos en la red, es decir, con dos valores muy importantes como son la privacidad y la transparencia. Debemos ser dueños de nuestros propios datos. Hay que tener en cuenta que esa información puede ser usada para concedernos o negarnos un préstamo o un seguro médico en el futuro.