TRIBUNA

Inteligencia Artificial, ética y confiable

Hoy la IA se aplica en numerosos campos y sectores y nos ha hecho ver su enorme potencial en situaciones tan complicadas para toda la humanidad como la pandemia por Covid-19

ChatGPT, el bot viral que anticipa el futuro de la inteligencia artificial

ChatGPT, el bot viral que anticipa el futuro de la inteligencia artificial

Vicent Botti

La Inteligencia Artificial (IA), calificada por muchos como la nueva electricidad del siglo XXI e ingrediente clave de la cuarta revolución industrial, es según la definición de la RAE la disciplina científica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana como el aprendizaje o el razonamiento lógico.

Desde un punto de vista más académico, entre las muchas definiciones que podemos encontrar en la literatura, la IA es la disciplina científica que trata sobre los sistemas informáticos que muestran un comportamiento inteligente. Es decir hacer cosas que tradicionalmente requieren la inteligencia humana para alcanzar objetivos concretos en función de sus percepciones. Aunque este concepto ha estado latente en el imaginario colectivo, la literatura y la filmografía, no fue hasta la década de 1950 cuando el matemático británico Alan Turing descifró los códigos secretos nazis contenidos en la máquina Enigma durante la Segunda Guerra Mundial. Este hecho determinó el futuro de la II Guerra Mundial en favor de los aliados y sentó las bases de la informática actual, ya que Turing planteó un artículo académico preguntándose si las máquinas podían pensar y presentó así el conocido como Test de Turing.

A partir de este momento, la IA ha tenido momentos de bonanza y de declive. Los declives han coincidido con baches respecto al incumplimiento de las expectativas depositadas en la IA. Pero desde hace 15 años, la IA se encuentra en un momento de primavera constante. Tal y como destaca el profesor del departamento de Ciencias de la Computación de la Universidad de Stanford Andrew Ng se debe, a la confluencia de tres factores. Por un lado, la disponibilidad de cantidades ingentes de datos (Big Data), por otro la disponibilidad de grandes capacidades de computación a bajo coste, y por último, el desarrollo de modelos de aprendizaje que están inspirados en las redes neuronales de los años 40, pero mucho más sofisticados, llamados modelos de aprendizaje profundo.

Hoy la IA se aplica en numerosos campos y sectores y nos ha hecho ver su enorme potencial en situaciones tan complicadas para toda la humanidad como la pandemia por Covid-19, donde nos ha permitido predecir modelos de comportamientos del virus y anteponernos a escenarios difíciles.

La IA está hoy en nuestro día a día. Podemos encontrar ejemplos en la lectura de la matrícula de nuestro vehículo cuando entramos en un aparcamiento, cuando hablamos con nuestro asistente virtual o cuando un sitio web o plataformas de contenidos nos hace sugerencias.

La IA está transformando el mundo y sus ventajas se pueden aplicar a casi todas las áreas de la ciencia, la salud, el medio ambiente, la energía, la fabricación o meteorología. La IA nos ayuda hoy, gracias a las simulaciones, a mejorar la interacción entre humanos, así como a simular escenarios como el Covid-19 u otras situaciones críticas. Y es capaz de recomendar y hacer negociaciones entre agentes artificiales y humanos para mejorar la toma de decisiones. En este sentido, es necesario contar y trasladar a todo el tejido productivo e industrial todos los avances e investigaciones que se están llevando a cabo en este sentido y que están a su alcance para mejorar su productividad o anticipar errores.

No hay duda de que los beneficios de la IA son enormes, sin embargo es necesario garantizar un uso ético y responsable de la IA. Y apostar por una IA confiable que ponga a las personas en el centro de todo. Y todo ello porque no existiría la inteligencia artificial sin la inteligencia humana, puesto que son las personas las que tienen un papel irremplazable en el desarrollo de la IA.

Porque no es oro todo lo que reluce y en este caso también hay sombras. Los trabajadores temen perder su trabajo a causa de la automatización, los consumidores se preguntan quién es el responsable en caso de que un sistema basado en la IA tome una decisión equivocada, las pequeñas empresas no saben cómo aplicar la IA a su negocio, las nuevas empresas de IA no encuentran los recursos y el talento que necesitan en Europa, y la competencia internacional es más feroz que nunca.

A medida que la Inteligencia Artificial se hace más sofisticada, comenzará a tomar o ayudar a tomar decisiones que tienen un mayor impacto en las vidas de las personas. Y esto plantea desafíos éticos a medida que las personas se vayan adaptando al papel más amplio y prominente de la toma de decisiones automatizada en la sociedad.

Para hacer frente a estos retos y aprovechar al máximo las oportunidades que ofrece la IA surge la Inteligencia Artificial Responsable, una IA de confianza basada en valores éticos y sociales y basada en la Carta de los Derechos Fundamentales con un enfoque centrado en el ser humano.

Un principio clave es la «ética en el diseño», en virtud de la cual se aplicarán principios éticos y jurídicos, sobre la base del Reglamento General de Protección de Datos, el cumplimiento de la legislación sobre competencia y la ausencia de sesgos en los datos desde el inicio del proceso de diseño. Al definir los requisitos de los sistemas de IA, también es importante tener en cuenta las interacciones entre los seres humanos y los sistemas de IA. Otro principio clave es la «seguridad desde el diseño», según el cual la ciberseguridad, la protección de las víctimas y la facilitación de la aplicación de la ley deben tenerse en cuenta desde el principio del proceso de diseño.

El comportamiento de las personas está regulado por numerosas leyes, sin embargo los algoritmos están sujetos a muy pocas regulaciones. Esto es inapropiado y peligroso, ya que los sistemas de IA interfieren cada vez más en nuestras vidas, a menudo sin nuestro conocimiento. Y debería estar controlado, aun tratándose de un servicio gratuito. El ser humano está perdiendo el control sobre las tecnologías de la información y la comunicación que ha creado.

Debemos crear las herramientas centradas en el diseño transparente de sistemas tecnológicos que sean compatibles con nuestros valores morales, sociales y culturales tales como la seguridad, la sostenibilidad, la democracia, la participación, la seguridad, la transparencia, la rendición de cuentas y el surgimiento de ciertas propiedades y funciones, y las instituciones deben apoyar estos principios. El diseño de los sistemas de IA se debe centrar en la eficiencia, usabilidad, flexibilidad, resiliencia, justicia, dignidad, felicidad, bienestar, seguridad, salud, empatía, amistad, solidaridad y paz.

Suscríbete para seguir leyendo