Pensar o Som


A música é a única forma de arte para a qual a humanidade sentiu necessidade de criar e conceber instrumentos próprios, isto é, cuja finalidade se esgota na própria arte. Ao contrário da pintura ou da escultura, onde, por exemplo, os seus instrumentos são ferramentas com aplicações práticas para o dia-a-dia, um trompete mais não serve do que para fazer música.

A humanidade sentiu essa necessidade porque historicamente a produção e manipulação sonoras só eram possíveis mediante a existência de uma fonte física. Primeiro o corpo como fonte sonora, utilizando a voz (as cordas vocais para produzir vibração) ou então as mãos a percutirem partes de si mesmo (palmas, estalidos, etc.). Ao longo do tempo e das gerações, as possibilidades de fontes sonoras foram incrementando com o uso dos tais ditos instrumentos — desde flautas esculpidas em osso, datadas de há vários milhares de anos, a artefactos mecanicamente muito complexos como os pianos ou os órgãos hidráulicos. O limite seria sempre a imaginação e a possibilidade de manuseamento dos materiais.

Historicamente, contudo, algo continuava indissociável: a fonte sonora era física e o seu timbre era consequência dos materiais, volume, formato e localização dessa mesma fonte. E nós capazes de, através dos sentidos, a identificar. Mesmo não a conseguindo ver, ouvindo apenas o som, um humano consegue perfeitamente perceber quando um som se trata por exemplo de um clarinete tocado com força e se está longe ou perto, ou se é uma voz de mulher contente ou triste. As características do som permitem-nos saber muitos parâmetros implícitos sobre a fonte.

Tal viria só a mudar, já no século XX, com a tecnologia. O aparecimento da electricidade, da amplificação, da computação, dos processos de síntese, vieram baralhar as contas. De repente passou a ser possível gerar sons que não existiam na natureza, e que os emulavam ou exacerbavam. Era possível enganar o cérebro, criar quimeras e fazer-nos ouvir o que não estava lá. Passou a ser possível alguém com um sintetizador gerar o som de uma orquestra inteira num auditório e, na realidade, nem tal orquestra nem tal auditório terem existido. Mais ainda, passou a ser possível gerar sons híbridos e irrealistas que o nosso cérebro, por muito que se esforçasse, não conseguia relacionar com qualquer fonte física que conhecesse. Não conseguia perceber se era vidro ou madeira, se estava perto ou longe, se era percutido ou tocado com um arco.

A existência de todos estes sons abriu todo um novo mundo por explorar, e que foi realmente explorado (e continua a sê-lo) ao longo dos últimos sessenta anos. Para tal a ideia de instrumento não mudou. Continuou sempre a ser necessária a existência de uma interface. De um mediador físico que permitisse um humano manipular os sons virtuais, tal qual estivesse a manipular um instrumento real. Devido à sua abrangência, popularidade e facilidade de execução, o teclado, semelhante ao do piano, e que já vinha dos antigos cravos e órgãos, manteve-se como uma das interfaces mais comuns até hoje, com poucas alterações. De forma a ultrapassar alguns limites do teclado, enquanto interface, nomeadamente o problema de apenas ser capaz de dar notas discretas, muitas tentativas para alterar essa condição foram exploradas. Deste controladores baseados em instrumentos de corda, controladores por via do sopro, ou até de molas e pedais, todos permitindo dar notas contínuas. A inclusão de fitas e manípulos permitiu superar tais dificuldades e estender a resolução do instrumento.

A Mola Sónica, de Tomás Henriques, professor português na Universidade de Buffalo, supera limitações ao nível do discreto e permite uma interacção gestual alargada:

 
O Haken Continuum é um teclado que também supera as limitações do discreto e nos oferece possibilidades de portamentos com muito maior resolução, bem como técnicas de modulação:

 
Na mesma linha, o Sea Board permite uma maior expansão das possibilidades sónicas dos comuns teclados:

 
Mas continuam a ser geralmente interfaces com curvas de aprendizagem longas e pouco intuitivas para quem queria fazer a transição de anos e anos de aprendizagem nos instrumentos tradicionais. Além disso, sofrem dos tradicionais problemas de ocuparem um espaço físico considerável e terem preços de fabrico por vezes proibitivos para permitir uma comercialização em larga escala ou uma distribuição por públicos menos abastados.

A questão-chave continua a ser a ideia de optimizar as interfaces de forma a serem o mais flexíveis possível, mantendo alguma precisão e controlo sem deixarem de ser intuitivas. O problema já não é só da música; é um problema que coincide com a informática em geral. Trata-se de um problema de mediação — como conseguir manipular dados gerados por computadores de forma eficaz. Os músicos começaram por isso gradualmente a utilizar controladores pensados para efeitos recreativos gerais e não apenas para música: virtualmente qualquer sensor pode ser entendido como um potencial controlador para manipular som.

Surgiram então aplicações para utilizar os comandos de uma Wii…

 
…ou mesmo o arrastar de dedos num ecrã, possível com as tecnologias de ecrã sensível ao toque.

 
Ou as luvas sónicas de Imogen Heap:

 
Tudo isso foram revoluções ao nível da manipulação do som; pela primeira vez o homem estava a aproximar-se de novo de um estado mais «primordial» do contacto com o som — uma manipulação háptica e sensível, muito baseada no gesto, e em interfaces cada vez mais invisíveis. Seria possível ir ainda mais além?…

A verdade é que sim. Se recuarmos um pouco ao passado (1928), apercebemo-nos de que um instrumento fascinante, o theremin, prometia algo que já na altura parecia ficção científica: controlar o som sem tocar em algo tangível. «Orientá-lo» apenas.

 
O problema do theremin era que os gestos que se tinham de fazer em pleno ar, decididamente muito intuitivos e nada intrusivos, requeriam uma precisão que escapava à maior parte das pessoas se queriam fazer música que se ouvisse e soasse agradável. A curva de aprendizagem era íngreme, e o grau de precisão pouco fiável. Era necessário um controlo absoluto sobre o gesto, quase de cirurgião. Chega-se à conclusão de que, mais do que um problema de corpo, se tratava de um problema de coordenação, um problema de mente. E aí entramos no domínio da ficção. E se fosse possível controlar o som com a mente? Pensar o som. Pensar literalmente o som.

Parece que nada mais ideal estaria à vista. Seria o culminar de uma grande caminhada evolutiva, uma maneira completamente intuitiva, perfeita, flexível e abrangente para controlar o som. A questão parecia ser: como fazê-lo?

A resposta, ou pelo menos as primeiras tentativas, veio do campo da medicina: a utilização de sensores para medir as ondas cerebrais já existe desde os anos 20; no entanto só muito recentemente a tecnologia evoluiu para permitir a existência de interfaces que sejam efectivamente acessíveis ao público individual, minimamente intrusivas, e com leituras fiáveis.

Elas já existem e estão aí. O que poderia parecer ficção científica já não o é. Actualmente várias empresas já comercializam interfaces capazes de ler ondas cerebrais em tempo real e de transmitir os resultados ao computador através de software.

Dessa mesma maneira é perfeitamente possível manipular os dados e usá-los como forma de controlar o som. A própria interface em si ainda não é perfeita; no caminho da invisibilidade podem ainda dar-se mais passos. As interfaces ainda são algo intrusivas, não são completamente neutras, as suas leituras por vezes têm falhas, como é natural nas tecnologias recentes, e ainda são relativamente caras para serem vistas como algo que facilmente se torna universal. O seu próprio formato ainda não é uniforme.

O EPOC headset da Emotiv parece ser bastante popular actualmente, com um design elegante e um preço razoável.

Emotiv EPOC Headset

Emotiv EPOC Headset

Também a MUSE lançou fitas para a cabeça, mais flexíveis e não tão intrusivas. A Neurosky tem uma linha inteira de produtos diversos similares. A Melon também tem um produto na mesma onda. E a BCI faz pesquisa em produtos de interacção entre o cérebro e os computadores.

O MIT tem toda uma equipa de cientistas dedicados ao tema. O MIT MiND Ensemble é um grupo de artistas ligados aos novos media que utilizam interfaces personalizadas para exploração da música a partir da ligação mente-máquina.

Yago de Quay e João Beira, doutorandos portugueses em Media Digitais na Universidade do Texas em Austin, ilustram uma obra com o uso dos novos interfaces.

Yago de Quay e João Beira em ensaio

Yago de Quay e João Beira em ensaio

BioMediation é uma obra audio-visual baseada em sensores que ilustram a prática da meditação. Através do uso de electroencefalografia (EEG), o processo cognitivo e emocional do artista é traduzido de forma dinâmica para som e composição visual em tempo real. O som é gerado por síntese granular. Yago usou o programa Max MSP para mapear as frequências cerebrais e gerar, activar e modular diferentes secções da performance. Os efeitos visuais foram gerados em tempo real através do uso de uma câmara com sensor de profundidade — a Xbox Kinect — criando representações tridimensionais do seu corpo. O sensor captura o corpo de Yago e projecta-o de volta para o seu espaço. O cérebro de Yago e o EEG também estão ligados ao controlo virtual da câmara; por exemplo, Yago é capaz de controlar a rotação da câmara virtual, e a sua aproximação ou afastamento. Desta forma, o corpo está ligado à actividade cerebral fundindo o mundo físico com a dimensão psíquica. Outro aspecto importante da performance é o uso de uma luz estroboscópica para induzir comportamento caótico no artista a dado momento.

 
No que respeita a pesquisa académica mais aprofundada, há a reter o recém-lançado volume de Eduardo Reck Miranda, Guide to Brain-Computer Music Interfacing, para quem quiser aventurar-se por estas áreas.

A conclusão a reter é: interfaces que permitem ligar o nosso cérebro ao computador já existem, já cá estão e não são ficção científica. Neste momento já é literalmente possível pensar o som. Só que, contrariamente ao que imaginaríamos, este não foi afinal um ponto de chegada, um culminar. O grande desafio agora é saber exactamente como mapear os dados recolhidos de forma consistente e convincente. Como decifrar esses dados, no sentido de haver uma correspondência entre intenção e resultado prático. Quem pensa o som tem de saber o que pensar e como, não pode haver surpresa, tem de ser consequente. Tem de perceber que um dado tipo de pensamento origina um dado tipo de resposta; por exemplo, se alguém quiser tocar um «lá» o que precisaria de fazer para o obter — e essa correspondência ainda está longe de ser linear ou intuitiva de mapear. Esse é um grande desafio que poderá definir a fronteira entre o sucesso e o fracasso deste tipo de interface. Na realidade é apenas ainda o início de uma longa caminhada com resultados imprevisíveis…

Tiago Videira considera­-se um criativo com intervenções em várias áreas. Licenciado em Ciências Musicais com mestrado em Filosofia (Estética da Música), e doutor em Digital Media, ao abrigo do programa UT-­Austin/Portugal, com um projecto ligado à música e novas tecnologias, tendo residido dois anos em Austin, EUA. Interesses de Investigação: Música generativa, algorítmica e interactiva; Etnomusicologia computacional; Estética musical; Música popular, Composição, Estudos de performance; Música e cultura portuguesas.