Contents

A GenAI da Adobe transforma mensagens de texto em música: aqui está uma primeira espreitadela

Ligações rápidas

⭐ A Adobe revela o Project Music GenAI Control

⭐ Onde é que a GenAI obtém o seu material de origem?

Key Takeaways

A Adobe desenvolveu uma ferramenta de ponta chamada Project Music GenAI Control que permite aos utilizadores gerar composições musicais introduzindo descrições textuais ou utilizando padrões melódicos pré-existentes como referências. Além disso, esta plataforma inovadora concede aos utilizadores a capacidade de afinar meticulosamente a saída de áudio resultante para otimizar a criatividade e a arte.

O GenAI foi criado em colaboração com universidades de renome, enfatizando um nível profundo de controlo sobre o processo de composição musical e evitando a necessidade de aplicações de edição adicionais.

Embora pareça que o GenAI cumpre as directrizes éticas da Adobe relativamente à utilização de dados, existe ainda uma questão de preocupação em torno de potenciais violações dos direitos de propriedade intelectual relativamente a composições musicais produzidas por IA.

A Adobe anunciou recentemente o desenvolvimento de um gerador de música com IA conhecido como GenAI. Esta ferramenta inovadora permite aos utilizadores gerar música com base numa entrada de texto fornecida e refinar o resultado através de opções de personalização. No entanto, há uma questão fundamental que continua sem resposta - quais são as fontes de dados de áudio utilizadas pelo GenAI no seu processo de composição?

Adobe revela o Project Music GenAI Control

A Adobe anunciou um potente sistema de IA, o Project Music GenAI Control, que promete uma forma mais eficiente e divertida de incorporar a música na criação de conteúdos. O GenAI permitirá que os utilizadores criem música com um simples texto ou uma melodia de referência e, em seguida, melhorem e afinem as suas criações utilizando uma variedade de funcionalidades de edição.

Rascunho avançado:O desenvolvimento em curso do protótipo de controlo GenAI do Project Music é um esforço de colaboração entre investigadores de instituições conceituadas, a Universidade da Califórnia e a Universidade Carnegie Mellon. Nesta fase, os detalhes relativos ao lançamento oficial do projeto ainda não são claros, incluindo se será lançado como uma aplicação independente ou se será perfeitamente integrado nas plataformas de software Adobe existentes, especificamente o Premiere Pro.

Utilizando a inovadora tecnologia de IA da Adobe, conhecida como Firefly, é possível gerar áudio fornecendo uma mensagem de texto ou carregando uma referência musical. Subsequentemente, os utilizadores têm a capacidade de manipular vários atributos do som gerado utilizando parâmetros personalizáveis, incluindo ajustes ao tempo, ritmo, duração e capacidades de looping, permitindo, em última análise, a criação de sequências alargadas sem falhas.

De acordo com Nicholas Bryan, um cientista de investigação sénior da Adobe Research, conforme expresso no comunicado de imprensa da empresa,

Um dos aspectos cativantes destas ferramentas inovadoras reside no facto de irem além da mera geração de áudio; em vez disso, elevam o domínio da manipulação do som a um nível semelhante ao do software de edição de imagem, como o Adobe Photoshop. Ao fornecer aos músicos um grau equivalente de controlo intrincado sobre cada elemento sonoro individual, estas ferramentas oferecem uma forma de precisão “ao nível do pixel” até agora inatingível no domínio auditivo.

Para além de ultrapassar as aplicações musicais de IA convencionais, como o MusicLM, o GenAI elimina a necessidade de programas de edição de áudio suplementares. Consequentemente, espera-se que esta inovação tenha um impacto significativo nos criadores de conteúdos no YouTube, nas plataformas de podcast e naqueles que procuram sequências de loop simples e manipulações de som fundamentais.

De onde é que o GenAI obtém o seu material de origem?

Na publicação do blogue, a Adobe menciona o seu compromisso de respeitar os seus princípios éticos de IA , garantindo que a tecnologia de IA é desenvolvida de forma responsável. Podemos presumir que isto significa que o GenAI está a ser treinado com dados que são de confiança, como os do domínio público ou trabalhos devidamente licenciados. A Adobe também está a desenvolver tecnologia de marca de água para que possamos identificar se o áudio é gerado pela GenAI.

A exclusão da funcionalidade de melodia de referência da nossa discussão coloca um desafio em termos de determinação das faixas elegíveis que os utilizadores podem carregar na plataforma. É crucial que a Adobe navegue nesta questão com cautela, uma vez que a incorporação de composições musicais protegidas por direitos de autor pode levar a disputas legais com empresas discográficas e artistas.

Ainda não se sabe se a música gerada por IA viola a propriedade intelectual dos artistas. No entanto, plataformas como o TikTok e o Spotify já removeram algumas faixas deepfake que utilizam amostras vocais de artistas sem o seu consentimento. Um exemplo disso é a canção Heart on My Sleeve, com vozes falsas de The Weeknd e Drake, tal como noticiado pelo The Guardian .

Nem todos os artistas estão preocupados com os desafios colocados pela inteligência artificial na música. Por exemplo, Grimes mostrou-se disposta a colaborar com a IA, desde que receba uma compensação adequada por quaisquer canções criadas com as suas contribuições vocais.

Os algoritmos genéticos ganharam popularidade crescente nos últimos anos como meio de gerar ferramentas de inteligência artificial que permitem aos utilizadores criar conteúdos com relativa facilidade.Uma dessas ferramentas chama-se GenAI, que tem o potencial de revolucionar o processo de fazer música, automatizando grande parte do processo de composição e arranjo. No entanto, este avanço também pode representar um desafio significativo para os músicos cujas obras podem ser incorporadas involuntariamente nestas composições, levando a disputas legais sobre a propriedade dos direitos de autor.