Hoja de calendario

Amenazas de la Inteligencia Artificial

La IA impulsa la inteligencia humana.

La IA impulsa la inteligencia humana. / Placidplace en Pixabay.

Antonio Papell

Antonio Papell

Las grandes tecnológicas —Big Tech— han irrumpido en Internet con el desarrollo de los «modelos de lenguaje extenso», como ChatGPT y Bard, que nos ofrecen, en teoría, retazos de conocimiento, cuyo origen proviene del acervo de contenidos de la propia Internet, organizado mediante criterios impuestos por los programadores, que nunca son completamente neutros. En prácticamente todos los casos persiguen el mayor logro económico posible para los soportes a los que sirven, y en determinadas circunstancias pueden ser instruidos por los actores políticos para que favorezcan vectores ideológicos u organizaciones de un signo determinado. Si hasta ahora los estudiosos podían recurrir a Internet para obtener información de Wikipedia o de buscadores teóricamente neutrales como Google, lo que les proporcionaba bibliografía o datos enciclopédicos convencionales, en el futuro, y gracias a la inteligencia artificial, podrán obtener piezas elaboradas que, partiendo del conocimiento contenido en la red, lo convierte en discursos más complejos que responden a una lógica determinada. Así por ejemplo, si el programador de la inteligencia artificial otorga más énfasis a la igualdad que a la libertad, sus elaboraciones tendrán un sesgo socialdemócrata, y si ocurre al contrario, obtendremos un texto liberal.

En principio, no es en sí mismo alarmante que la inteligencia artificial, que será plural y diversa porque serán muchos los centros de programación y gestión que la utilicen, tenga una carga ideológica determinada. Nadie en su sano juicio considerará peligrosa una biblioteca en la que se almacenen libros de todas las corrientes ideológicas que se han integrado en siglos de evolución cultural. Se supone que los discentes progresan continuamente de la mano de docentes honrados y ecuánimes que les guían en su aventura del saber. En cambio, el peligro será evidente si la inteligencia artificial utiliza arteramente contenidos falsos, mendaces o maliciosos para elaborar las «informaciones» que ofrece en respuesta a los requerimientos que se le formulen. Máxime cuando es evidente que el principal afán de las Big Tech [Meta (Facebook), Alphabet (Google), Twitter, Microsoft] es conseguir el mayor tráfico posible en Internet, para respaldar su negocio publicitario que es el que les proporciona los exorbitantes beneficios que obtienen.

A nadie se le oculta que el tráfico en Internet se consigue fácilmente difundiendo contenidos extremos, exóticas mentiras deliberadas, desinformación o mensajes que inciten a la violencia, la venganza o la ira. Tenemos, pues, que prevenirnos contra la tentación que pueden sentir estas gigantescas empresas de apartarse de una ética en el conocimiento ajustada a los derechos humanos y a los grandes principios del pluralismo democrático. Y para ello, es indispensable la existencia de un marco jurídico equivalente al que controla la libertad de expresión en nuestras democracias occidentales. Ese control estatal debería establecerse en un mercado mucho más fragmentado (gracias a normas antimonopolio) en que exista un gravamen sobre la publicidad digital.

Acemoglu y Johnson, prestigiosos investigadores del MIT, han alertado de estos riesgos y en un reciente artículo han traído a colación este problema, agravado por el hecho de que la Ley de Decencia en las Comunicaciones de 1966 exima a las plataformas tecnológicas de cualquier responsabilidad por los contenidos que alojan. Cuando «si las plataformas actúan más como medios de comunicación que como meros repositorios en línea (cuando recomienden vídeos, Tweets o publicaciones), deberán cumplir con los mismos estándares que los medios de comunicación, los cuales, según las leyes de difamación existentes, no pueden publicar lo que saben a ciencia cierta que es falso». Los tribunales americanos están ahora deliberando sobre un caso cuya resolución será muy aleccionadora: la empresa Dominion Voting Systems (fabricante de máquinas de votación) ha demandado a Fox News por la evidencia de que sus presentadores y ejecutivos sabían, y comentaban entre ellos, que las acusaciones de fraude electoral de Trump eran falsas.

En definitiva, el reto consiste en lograr que los contenidos surgidos de la inteligencia artificial no sean material falsificado que se difunda sin escrúpulos para servir a los intereses de los proveedores de contenidos o de unos anunciantes dispuestos a todo para generar demanda. No será fácil expulsar de nuestras redes sociales la mentira malintencionada, la desinformación consciente y los estímulos a los bajos instintos de una muchedumbre que se preste a ser adoctrinada.

Suscríbete para seguir leyendo