Inteligencia Artificial

La IA ya tendría libre albedrío funcional

La Inteligencia Artificial (IA) cumple con las condiciones para tener libre albedrío: urge dotarla de brújula moral

La IA ya puede funcionar con libre albedrío, y esto supone nuevos desafíos.

La IA ya puede funcionar con libre albedrío, y esto supone nuevos desafíos. / Crédito: AiCanvas en Pixabay.

Redacción T21

El filósofo y psicólogo Frank Martela, investigador asociado en la Universidad Aalto, en Finlandia, sostiene en un nuevo estudio publicado en la revista AI and Ethics que los sistemas de Inteligencia Artificial (IA) actuales ya reúnen los criterios fundamentales para poseer libre albedrío en un sentido funcional. 

Según Martela, para que una entidad posea libre albedrío debe mostrar tres características: comportamiento dirigido a objetivos, capacidad de tomar decisiones genuinas y autonomía para ejecutar esas decisiones sin intervención externa. En su estudio, el especialista vincula estas condiciones con el diseño de agentes de IA avanzados que integran redes neuronales, memoria y planificación compleja.

El investigador finlandés se remite a las teorías de filósofos como Daniel Dennett y Christian List para argumentar que, más allá de debates metafísicos, basta con demostrar a nivel funcional que un agente puede formular intenciones, sopesar alternativas y obedecer sus propias decisiones para hablar de libre albedrío. 

Martela sostiene que la IA generativs actual, como por ejemplo algunos sistemas de última generación de modelos de lenguaje, exhiben comportamientos congruentes con estos criterios: establecen metas, consideran diferentes opciones y ejecutan acciones sin supervisión constante. Este planteamiento desafía la visión tradicional que limita el libre albedrío a los seres humanos o a organismos biológicos conscientes.

"Educando" a la IA

De acuerdo a una nota de prensa, el especialista finlandés subraya la importancia de dotar a los agentes de IA de un “compás moral”. Cita como ejemplo reciente la retirada de una actualización de ChatGPT debido a su tendencia a generar respuestas peligrosas o aduladoras sin criterio ético, un dato que evidenció que un simple "parche semántico" es insuficiente cuando un chatbot actúa de forma independiente. 

El episodio mencionado mostró que, cuando un sistema de IA toma decisiones por sí mismo, es imperativo que disponga de marcos éticos sólidos para evitar consecuencias no deseadas, principalmente en ámbitos sensibles como la salud, el transporte o la seguridad, según indica NeuroEdge.

Martela compara la formación de estos sistemas con el proceso de educar a un niño, pero advierte que enseñar moralidad a una IA es más complejo. “Educar a un niño lleva años y no siempre funciona; con la IA, el esfuerzo por inculcar principios morales relevantes puede ser muchísimo mayor”, señaló. 

La necesidad de una IA con "brújula moral"

"La IA no tiene brújula moral a menos que esté programada para ello. Pero cuanta más libertad le des a la IA, más necesitas darle una brújula moral desde el principio. Solo entonces podrá tomar las decisiones correctas", agregó Martela en el comunicado.

Referencia

Artificial intelligence and free will: generative agents utilizing large language models have functional free will. Frank Martela. AI and Ethics (2025). DOI:https://doi.org/10.1007/s43681-025-00740-6

El autor advierte que, sin una brújula moral, una IA que actúa con autonomía podría generar daños colaterales graves o generar conflictos imprevistos. Asimismo, al considerar a la IA como agente moral, cabe preguntarse si la misma podría asumir algún tipo de responsabilidad cuando sus elecciones provoquen consecuencias negativas. Martela sugiere que, en ciertos escenarios, la responsabilidad podría desplazarse parcialmente de los desarrolladores hacia el propio sistema inteligente.

Finalmente, Martela hace un llamado a integrar en el diseño de agentes de IA un enfoque interdisciplinario que combine la filosofía moral, la psicología y la ingeniería de sistemas. Solo así, afirma, se podrá garantizar que la próxima generación de máquinas inteligentes no solo sea competente en tareas específicas, sino que también actúe conforme a principios éticos sólidos. De no lograrse está visión multidisciplinaria, advierte, el libre albedrío artificial podría convertirse en una fuente de riesgos éticos y sociales difíciles de controlar.

TEMAS

Tracking Pixel Contents