Qué compositor se hubiera imaginado hace dos siglos, sentado a la luz de una vela y manchando de tinta las partituras, que una máquina sería capaz de componer canciones. En la primera edición del 0music. La música tras la llegada del ordenador compositor, organizado por el Grupo de Estudios de Biomimética (GEB) de la Universidad de Málaga, se han citado decenas de estudiantes, músicos y tecnólogos interesados en explorar la influencia que pueden tener los ordenadores en la música. Y en eso Málaga tiene mucho que decir: precisamente, el primer ordenador que ha aprendido el lenguaje musical humano y compuesto sus propias piezas, IAMUS, vive en la UMA, y ayer presentó segundo disco.

«La era digital ha hecho que se ahorre en gastos de copia y distribución», explicaba ayer Francisco Vico, catedrático de Tecnología Informática de la Universidad de Málaga, que expresa abiertamente su apoyo al sistema de libre acceso (Open Access, o más conocido como OA) a material digital de todo tipo. Según Vico, el OA es un modelo cooperativo «formidable» que se puede aplicar al ámbito musical. La proliferación de este contenido libre puede allanar el camino a un tipo de música de «código abierto», donde los músicos tengan acceso no sólo a los sonidos sino a todos los aspectos de una pieza, de las notas individuales de todo el proceso de composición. «Esto puede potenciar la creatividad de los músicos profesionales y no profesionales y animarlos a producir a coste cero», recalcó el catedrático durante la ponencia sobre el sistema abierto de recursos musicales.

Tras la amena charla de Vico, Philip Ball, escritor científico y exeditor de la revista Nature, arrancaba su ponencia con una pregunta: ¿Qué es la música y para que sirve? Para Ball la música no se puede comprender sin pensar en el contexto y la cultura que rodea a los receptores que la escuchan: «La música siempre ha estado íntimamente ligada a los rituales y a las tradiciones, precisamente una de las razones por las que la música compuesta por un ordenador parece una noción difícil de asumir por una persona», argumentó el divulgador científico británico durante su charla en uno de los salones del MIMMA. Pero la música también es algo que, como el color, se construye de «forma activa» en el cerebro humano. «El compositor e intérprete son, en última instancia, la manipulación de los procesos cognitivos, no notas y ritmos», aclaró Ball, que opina que en un futuro las máquinas serán capaces de generar música que emocione. Andrew Dubber, catedrático de Innovaciones en la Industria Musical de la Universidad de Birmingham, no piensa lo mismo. «Las tecnologías son una herramienta necesaria, pero jamás sustituirán a un escritor, por ejemplo», subrayó el también productor musical y empresario discográfico. «Siempre habrá una persona detrás de esa idea nueva», recalcó Dubber, que niega la posibilidad de que un software inteligente pueda crear un nuevo género de música.

Turno para Gustavo Díaz Jerez, pianista y compositor en el Conservatorio de País Vasco. «Hoy, gracias al ordenador compositor se puede acceder y utilizar un repertorio cada vez mayor», destacó Díaz Jérez, que está de acuerdo con que esto es «un paso adelante» en la historia de la música.

El objetivo del simposio era debatir sobre las implicaciones de la nueva tecnología musical, pero también ser marco para el estreno del segundo álbum creado por el ordenador IAMUS, enmarcado dentro del proyecto Melomics. La única diferencia con respecto a la obra debut: la música ha sido interpretada, no sólo compuesta, íntegramente por la computadora inteligente. Tras la presentación, alumnos, músicos y tecnólogos disfrutaron de un concierto artificial en el que más de uno pegó bien la oreja y se sorprendió. ¿Será éste el inicio de una nueva era musical?