Fonte: Futurecom Digital
Por Philipe Moura
A inteligência artificial pode encontrar sua interseção na música não apenas na reprodução, mas na produção e até na composição.
Enquanto escrevo este artigo que inaugura minha coluna aqui no canal “Futurecom Digital”, ouço, em uma plataforma de streaming de música, uma playlist que, até então, havia orgulhosamente montado sozinho. Digo “orgulhosamente” porque, desde a época de fita cassete, sou um ávido criador de playlists, e esse gosto vem transcendendo as mídias. (Talvez seja um sonho reprimido de ser compositor de trilha sonora, ou quiçá um desejo de que nossas vidas tivessem uma trilha sonora em tempo real para ajudar a dar mais sentido a alguns momentos).
Esta playlist, que ainda era um trabalho em progresso, teve seu toque final possibilitado pelas recomendações geradas pelo algoritmo da minha plataforma de streaming. A inteligência por trás dessa plataforma analisou não apenas o que ouço – meu gosto musical inclui, de fato, vários séculos da música ocidental –, mas o conteúdo da sequência particular de músicas e artistas que compõem essa playlist, comparando-a com outras similares, e me sugeriu algumas ideias de inclusão.
Este artigo é, afinal, sobre tecnologia e música – hoje, data em que escrevo o artigo, é o dia internacional do rock. Esses dois temas sempre andaram lado a lado – basta lembrar como a invenção ou sofisticação de certos instrumentos e técnicas direcionaram fundamentalmente o rumo da história da música–, e agora encontram ainda mais áreas de interseção.
Lembro-me com carinho da minha participação – integralmente presencial – na edição de 2019 do Futurecom, que contou com uma demonstração ao vivo do Maestro João Carlos Martins de como a tecnologia – personificada no Joquinha, robô passador de páginas de partitura – tem possibilitado a ele continuar a viver a música pela regência.[1]
Há, de fato, ainda mais fronteiras para serem rompidas ou, minimamente, melhor exploradas. A invenção do microfone, por exemplo, permitiu não apenas o avanço da telefonia, e subsequentemente da transmissão de rádio, mas viabilizou que a voz humana fosse utilizada, para fins artísticos ou não, de formas que até então eram pouco práticas – afinal, há um limite fisiológico para quanto som nós conseguimos produzir, e qual distância esse som consegue percorrer. Já imaginou Woodstock sem microfone?
A inteligência artificial – doravante, na minha coluna, referida apenas como IA – ainda está nos princípios dessa jornada.
A IA pode encontrar sua interseção na música não apenas na reprodução, mas na produção e até na composição. Em 1951, Alan Turing programou um computador para reproduzir melodias tradicionais (o áudio foi recentemente restaurado, caso o leitor tenha curiosidade de ouvir); em um futuro talvez não-tão-distante poderemos ter música que foi composta, produzida, distribuída e reproduzida integralmente sem intervenção humana.
Também não seria difícil imaginar uma IA sofisticada que proponha versões para a obra perdida de Johann Sebastian Bach. Ainda que essas proposições não devessem ser consideradas como parte da obra autêntica desse respeitadíssimo compositor, o exercício intelectual e seu consequente resultado sonoro seriam dignos de atenção.
Pouco mais de dois anos atrás, aliás, uma IA propôs uma versão do que a Sinfonia No. 8 (“Sinfonia Inacabada”) de Franz Schubert soaria se não fosse, bem, inacabada. Essa versão, que foi apresentada para o público pela primeira vez em um teatro londrino, foi a primeira feita por máquina, mas outros compositores e pesquisadores já haviam feito diversos exercícios a fim de emular a conclusão do terceiro e a composição do quarto e último movimento, partindo de anos de pesquisa profunda sobre Schubert e seu estilo. Aparentemente, a versão da IA não foi bem recebida pela crítica, por diferir demais do estilo original do compositor.[2]
Voltando ao meu tema original – será que não poderemos usar IA para adaptar playlists a sinais vitais (batimentos, respiração) e outros dados pessoais e ambientais (se estou estressado, se estou andando em um prédio vazio ou em pé no metrô lotado), e coletar feedback para customizar para cada indivíduo sequências de sons para potencializar seu estado mental pretendido (por exemplo, “quero diminuir a ansiedade”, ou “quero descansar antes de dormir”)? No extremo, cada indivíduo poderia ter, de fato, a sua própria trilha sonora, composta exclusivamente para ele, e sua vida poderia, em alguma medida, ganhar um componente cinematográfico.
Quanto a mim, penso que ainda não estou pronto para me aposentar como playlister. Mas acho que não tardará até que uma IA cada vez mais sofisticada se torne a norma, e não a exceção, até para os mais versados.
[1] Este video da TV Brasil mostra exatamente essa performance do Maestro e do Juquinha.
[2] Leia mais aqui.
* Chief Regulatory Officer da Associação Brasileira de Inteligência Artificial. Há mais de 12 anos, Philipe atua em temas de políticas públicas e regulação de tecnologia e inovação em mercados emergentes na América Latina, Ásia, Oriente Médio e África. Conselheiro e consultor, Philipe é mestre pela Universidade da Califórnia, ScrumMaster e Product Owner.