Adobe GenAI zamienia podpowiedzi tekstowe w muzykę: oto pierwsze spojrzenie
Szybkie linki
⭐ Adobe prezentuje Project Music GenAI Control
⭐ Skąd GenAI czerpie materiały źródłowe?
Kluczowe wnioski
Firma Adobe opracowała najnowocześniejsze narzędzie o nazwie Project Music GenAI Control, które umożliwia użytkownikom generowanie kompozycji muzycznych poprzez wprowadzanie opisów tekstowych lub wykorzystywanie wcześniej istniejących wzorców melodycznych jako odniesień. Co więcej, ta innowacyjna platforma daje użytkownikom możliwość skrupulatnego dostrojenia wynikowego wyjścia audio w celu uzyskania optymalnej kreatywności i artyzmu.
GenAI zostało stworzone we współpracy z wiodącymi uniwersytetami, podkreślając głęboki poziom kontroli nad procesem kompozycji muzycznej, jednocześnie eliminując potrzebę stosowania dodatkowych aplikacji do edycji.
Chociaż wydaje się, że GenAI przestrzega etycznych wytycznych Adobe dotyczących wykorzystania danych, nadal istnieją obawy dotyczące potencjalnych naruszeń praw własności intelektualnej dotyczących kompozycji muzycznych tworzonych przez sztuczną inteligencję.
Firma Adobe ogłosiła niedawno opracowanie generatora muzyki AI znanego jako GenAI. To innowacyjne narzędzie umożliwia użytkownikom generowanie muzyki na podstawie dostarczonych danych tekstowych i udoskonalanie wyników za pomocą opcji dostosowywania. Jednak jedno kluczowe pytanie pozostaje bez odpowiedzi - jakie są źródła danych audio wykorzystywanych przez GenAI w procesie kompozycji?
Adobe przedstawia Project Music GenAI Control
Adobe ogłosiło potęgę sztucznej inteligencji, Project Music GenAI Control, która obiecuje bardziej wydajny i przyjemny sposób na włączenie muzyki do tworzenia treści. GenAI pozwoli użytkownikom generować muzykę za pomocą prostej podpowiedzi tekstowej lub melodii referencyjnej, a następnie dalej ulepszać i dostrajać swoje kreacje za pomocą różnych funkcji edycji.
Zaawansowana wersja robocza:Trwający rozwój prototypu Project Music GenAI Control jest wspólnym wysiłkiem naukowców z cenionych instytucji, Uniwersytetu Kalifornijskiego i Uniwersytetu Carnegie Mellon. Na tym etapie szczegóły dotyczące oficjalnej premiery projektu pozostają niejasne, w tym to, czy zostanie on wydany jako niezależna aplikacja, czy też płynnie zintegrowany z istniejącymi platformami oprogramowania Adobe, w szczególności Premiere Pro.
Wykorzystując innowacyjną technologię sztucznej inteligencji firmy Adobe, znaną jako Firefly, można generować dźwięk, dostarczając podpowiedź tekstową lub przesyłając odniesienie muzyczne. Następnie użytkownicy mają możliwość manipulowania różnymi atrybutami wygenerowanego dźwięku za pomocą konfigurowalnych parametrów, w tym dostosowywania tempa, rytmu, czasu trwania i możliwości zapętlania, co ostatecznie umożliwia tworzenie płynnie rozszerzonych sekwencji.
Według Nicholasa Bryana, starszego naukowca w Adobe Research, jak podano w komunikacie prasowym firmy,
Jednym z urzekających aspektów tych innowacyjnych narzędzi jest fakt, że wykraczają one poza zwykłe generowanie dźwięku; raczej podnoszą sferę manipulacji dźwiękiem do poziomu porównywalnego z oprogramowaniem do edycji obrazów, takim jak Adobe Photoshop. Zapewniając muzykom równoważny stopień skomplikowanej kontroli nad każdym pojedynczym elementem dźwiękowym, narzędzia te oferują formę precyzji na poziomie “pikseli”, która do tej pory była nieosiągalna w domenie słuchowej.
Oprócz tego, że GenAI przewyższa konwencjonalne aplikacje muzyczne AI, takie jak MusicLM, eliminuje potrzebę stosowania dodatkowych programów do edycji dźwięku. W związku z tym oczekuje się, że ta innowacja będzie miała znaczący wpływ na twórców treści na YouTube, platformy podcastów i tych, którzy szukają nieskomplikowanych sekwencji pętli i podstawowych manipulacji dźwiękiem.
Skąd GenAI czerpie materiały źródłowe?
We wpisie na blogu Adobe wspomina o swoim zobowiązaniu do przestrzegania zasad etyki AI , zapewniając, że technologia AI jest rozwijana w sposób odpowiedzialny. Możemy założyć, że oznacza to, że GenAI jest szkolona na danych, które są uczciwą grą, takich jak domena publiczna lub odpowiednio licencjonowana praca. Adobe podobno opracowuje również technologię znakowania wodnego, abyśmy mogli zidentyfikować, czy dźwięk jest generowany przez GenAI.
Wykluczenie funkcji melodii referencyjnej z naszej dyskusji stanowi wyzwanie w zakresie określania kwalifikujących się utworów, które użytkownicy mogą przesyłać na platformę. Ważne jest, aby Adobe ostrożnie poruszał się w tej kwestii, ponieważ włączanie kompozycji muzycznych chronionych prawem autorskim może prowadzić do sporów prawnych z firmami nagraniowymi i wykonawcami.
To, czy muzyka generowana przez sztuczną inteligencję narusza własność intelektualną artystów, wciąż pozostaje w powietrzu. Jednak platformy takie jak TikTok i Spotify usunęły już niektóre utwory deepfake, które wykorzystują próbki wokalne artystów bez ich zgody. Doskonałym przykładem jest piosenka AI Heart on My Sleeve z fałszywymi wokalami The Weeknd i Drake’a, jak donosi The Guardian .
Nie wszyscy artyści są zaabsorbowani wyzwaniami stawianymi przez sztuczną inteligencję w muzyce. Na przykład Grimes wyraziła chęć współpracy z AI, o ile otrzyma odpowiednie wynagrodzenie za wszelkie utwory wygenerowane przy użyciu jej wkładu wokalnego.
Algorytmy genetyczne zyskały w ostatnich latach coraz większą popularność jako sposób generowania narzędzi sztucznej inteligencji, które umożliwiają użytkownikom stosunkowo łatwe tworzenie treści.Jednym z takich narzędzi jest GenAI, które może zrewolucjonizować proces tworzenia muzyki poprzez automatyzację znacznej części procesu kompozycji i aranżacji. Jednak postęp ten może również stanowić poważne wyzwanie dla muzyków, których utwory mogą zostać nieumyślnie włączone do tych kompozycji, prowadząc do sporów prawnych dotyczących praw autorskich.