AI작곡, 어떻게 보고, 어떻게 바뀔 것인가? > 소식

본문 바로가기

소식

with Soundcat

MAKE & PLAY

AI작곡, 어떻게 보고, 어떻게 바뀔 것인가?

사운드캣영업본부
2024-06-04 11:15 1,260 0
  • - 첨부파일 : 11.png (1.1M) - 다운로드

본문

얼마 전 인기 예능 프로그램 `런닝맨`에서 [인간 작곡가] vs [AI 작곡가] 대결이 벌어질 정도로 이제 AI 작곡은 보편화되었습니다.  

 

 

https://n.news.naver.com/mnews/article/055/0001144948?sid=101

 

 

사실 사운드캣도 음악 공모전을 준비하고 있던 도중..  이러한 뉴스를 접하고, 상의 끝에 일단 중단하기로 하였는데요.  적극적으로 AI를 사용해도 되는 공모전을 주최하자는 의견도 있었지만, 음악 제작 장비를 판매하는 회사에서 하는 행사로는 적절치 않을 수도 있다고 해서 일단 뒤로 넘겨놓았습니다.

*  요즘은, 공모전도 AI를 적극적으로 사용해서 참가해도 되는 쪽으로 바뀌고 있습니다만, 지켜볼 일입니다.

이 글은 아마추어 음악가의 입장에서 여러 글들을 읽고, 전문가 분과 토론도 하고 해서... 작성하였으니 가볍게 읽어보시면 좋을 것 같습니다. 

먼저 말씀드립니다. "반박하시면 그분의 말씀이 옳습니다!"

[음악 AI는 두 가지 하나는 일반인용, 하나는 제작자용]

먼저 많은 분들이 이야기하는, AI 작곡은 두 가지입니다.  

하나는 일반 소비자용입니다.  

생성형 AI인 suno나 udio 같은 서비스입니다. 

 

https://suno.com/

 

이 서비스는 그냥 텍스트로 "18세 고등학생이 좋아할 만한 빠르고 신나는 K-POP 스타일의 댄스 음악을 만들어줘~"와 같은 주문을 입력하면 음악을 만들어주는 서비스입니다. 가사를 입력하면 가사에 맞추어, 불러 주기도 합니다.  udio도 마찬가지이고, udio는 왜 이렇게 괴물같은 서비스가 나왔나 했더니, 이세돌을 이겼던 알파고를 만든 구글 딥마인드 출신들이 만든 회사라고 합니다.


https://fimmigrm.com/

FIMMIGRM이라는 일본에서 만든 AI도 있는데, 히트송 트랙을 분석/학습한 AI에 의한 온라인 작곡 서비스로, 분위기와 키, 음악 장르 등을 선택하는 것만으로 AI가 자동으로 오리지널 곡을 만들어 줍니다.  MIDI 파일로도 다운로드 받을 수 있기 때문에, 반드시 개인 소비자 뿐만 아니라, 음악을 제작하는 작곡가에게도 유용할 수 있습니다. 

앞으로 이러한 서비는 광범위하게 사용될 수 있으며 하나의 서비스로 자리 잡을 가능성이 높습니다. 

예를 들어 "조그마한 동남아 여행을 전문으로 하는 여행사를 하려고 하는데, 이에 어울릴만한 10초 분량으로 회사 로고송을 만들어줘"와 같은 것입니다. 

과거에는 중소규모의 스튜디오에 의뢰를 했던 것이죠.  

학교 행사에서 장기 자랑을 하고 싶은데 자기 사연을 입력하고 어떤 노래 스타일을 이야기하면 작곡을 해줄 수도 있습니다.  


https://www.udio.com/

사실 이 부분이 많은 음악 제작자분들이 우려를 하고 있는 부분인데요.  로고송 의뢰라거나, 고교생의 1회성 음악이나, 그런 부분이 중소 음악 스튜디오에게는 일거리였기 때문이죠.

그리고 예를 들어 제가 1인 게임 개발자이거나 또는 유튜버인데 배경 BGM이나 그런 걸 만들려고 할 때 굳이 스튜디오에 맡길 필요가 없이 AI가 만들어주니 스튜디오에 의뢰할 일이 없어집니다.

그만큼 일이 많이 줄어듭니다.  

대형 엔터테인먼트 회사들은 자체적으로 스튜디오를 가진 곳도 많아, 자기네 일은 대부분 자체적으로 처리하므로,  이러한 작은 일들이 중소 스튜디오의 경우 주수입원인 경우도 있습니다.  

그 다음 많이 녹음을 했던 더빙 같은 경우도 국내에는 워낙 자막으로 보는 곳이 많아 더빙 자체의 일이 많지 않기도 하거니와... 그나마도 이미 인공지능 성우 등은 정말 사람을 방불케 할 정도로 정교하게 음성을 만들어내고 있기도 합니다.

또 이렇게 음악을 기본적으로 만들기 쉬워지면 배우는 사람도 방향이 바뀌거나 적어집니다.  

그래서 또다른 수입원인 레슨이 상당 부분 사라질수도 있습니다. 

나머지 하나는 음악 제작자용입니다. 그 부분은 아래부터 따로 목차로 다루겠습니다.

[음악 제작자용 AI,  기술은 적극적으로 도입되어 왔고 이미 있다.]

생성형 AI의 경우 단기간에 급속도로 발전해서 충격을 주어 그 부분만이 AI라고 생각하기 쉽지만, AI 기술은 그전에도 음악 제작에 많이는 아니지만 자주 사용되고 있었습니다.  그 때 이런류의 소프트웨어를 사용하면서 이러다 언젠가 AI가 음악을 만들어주는게 아냐? 했지만 그게 현실이 되었습니다.


< 테이프 레코더 >

테이프를 40년만 뒤로 감아도... 테이프에서 레코딩을 하던 시대에서 비디오테이프에 멀티채널을 레코딩 했던 ADAT을 사용했었고... 불과(?) 30여 년 전에 HDD 레코딩 즉, '하드레코딩'이라는 말이 나와 이후 몇년 사이 스튜디오 판도를 바꿨습니다. 


< 첨단 연구소를 방불케하는 초기 레코딩 스튜디오, 지금 컴퓨터 한대 성능이 더 강력하다. >

지금은 컴퓨터를 보다 적극적으로 사용하여 실제의 악기보다는 가상악기, 실제의 이펙터보다는 가상 이펙터를 주로 사용하고 있으며, AI 기능도 부분적이지만 적극적으로 사용하고 있습니다.  실제로 이 과정에서 진짜 이펙터를 만들거나 진짜 하드웨어를 만들던 회사가 다수 파산하기도 했습니다.  하지만 몇몇 회사는 다시 기적적으로 부활했죠.

AI 기능이라고 하면 멜로디를 만드는 기능, 코드를 만들어주는 기능, 믹싱과 마스터링을 도와주는 기능, 표절 가능성을 알려주는 기능, 음원을 분리하는 기능 등은 이미 지금 나온 프로그램으로도 많습니다.


iZotope Ozone, AI가 음원을 해석해, 최적의 마스터링 설정을 제안하는 Master Assistant 기능

지금은 점점 고도화되고 있다고 보아야 합니다.


https://dreamtonics.com/synthesizerv/

가상 보이스 합성 소프트웨어 Dreamtonics Synthesizer V와 같은 경우는 가사와 멜로디를 입력하여 인간의 목소리에 가까운 리얼한 가성을 생성 가능합니다.   AI에 의한 리-테이크 생성이나 하모니 생성 등의 기능도 갖추고 있습니다.  아직 한국어에는 대응하고 있지 않지만 영어, 중국어, 일본어 등에 대응하고 있는데 곧 한국어도 추가될 것 같습니다.

 

https://musia.ai/ko/

곡 스케치의 경우도 쉬워졌습니다.  뮤지아원 같은 경우는 suno나 udio와 달리 음악을 자동으로 스케치하여, MIDI 파일로도 만들어주므로 만들어진 미디 파일을 DAW로 가져다가,  편집할 수도 있습니다.  (suno나 udio도 나중에 유료화를 해서 트랙별로 제공할 가능성도 높다고 봄)

BTS, 뉴진스로 유명한 하이브도 AI 오디오 기업 슈퍼톤을 인수하여, AI 노이즈 제거 등의 기능은 물론 RVC(Realtime Voice Converter) 기능을 지원하는 SHIFT 기능을 베타 테스트 중입니다.  

 

https://biz.chosun.com/industry/company/2023/01/31/QHVNZBYM4VDYZN5QIFDNOMM6RE/

만약 AI에 아이유 보이스가 입력되어 있다면 제가 마이크에 대고, 노래를 부르면 실시간으로 아이유 목소리로 변화된다는 것입니다.  특히 이러한 RVC는 음악에서 보컬은 물론, 내레이션 더빙 등에 광범위하게 사용될 수 있습니다.


https://product.supertone.ai/

이렇게 AI 기능이 하나둘씩 추가되는데다 이번에 애플(Apple)에서 음악 저작 툴인 로직 프로(Logic Pro)를 10에서 11로 업그레이드(아이패드용은 1에서 2) 하면서 베이스, 드럼 피아노 등을 코드를 입력하고 수준을 지정하면, 자동 연주해 주는 세션 플레이어 기능, 오디오트랙에 특유의 색채를 입히는 기능, 기존 만들어진 오디오 트랙에서 음원을 분리해 주는 기능 등을 추가하였습니다. 


< 아이패드의 로직 프로 2, 스템 스플리터 기능 >

혹자들은 기존에 이미 스템 스플리터 기능이나, 자동 연주 기능 등은 있었는데 애플이 한 게 왜 특이한 일이냐고 하지만... 같은 일이라도 애플이 하면 혁신이 되기도 하고... 또 자기가 필요해서 하나씩 추가하는 것이 아니라 기본 프로그램에, 별도 비용 없이 추가되어 있다는 점이 특이합니다.

즉, 음악 작업에서 AI는 부분적으로 이미 도입될 만큼 도입이 되었다는 것입니다.    다만 그 도입 속도가 최근에 엄청나게 빠르고, 또 지금도 빨리 이루어지고 있다는 데 있습니다.

[AI 도입으로 인한 음악 제작 환경은 어떻게 바뀌는 것인가?]

먼저 DAW 디지털 오디오 워크스테이션 즉, 흔히 작곡 프로그램이라고 하는데서 변화가 일어나고 있습니다.

AI 기능이 로직 프로 11을 필두 큐베이스, FLSTUDIO, 에이블톤 라이브 등에 적극적으로 도입이 될 것은 불 보듯 뻔한 사실입니다.  

사실 로직 프로 11을 그대로 두면, 새로 시작하는 초보자들이 로직을 1순위로 할 것이기 때문에, 다른 DAW 제작자들이 그것을 그냥 두고 보지는 않을 것입니다.  사실 발등에 불이 떨어졌다고 하는 표현은 맞지 않고, 애플이 먼저 선빵(적절한 표현은 아니지만)을 날렸기 때문에 "하아~ 먼저 선을 넘네"하고, 다른 회사들도 따로 팔던거나 가지고 있던 것을 넣어야 합니다.  아마 몇개월 이내일 것으로 보입니다.

지금이 5월이니 가을쯤봅니다.

이렇게 적극적으로 DAW에 인공지능이 투입되게 되면 일어나는 변화는 작업자의 수준에 따라서 틀립니다.

중급자 이상은 큰 변화를 느끼지 못하지만 초보자의 경우는, 생각보다 느끼는 변화가 큽니다. `작곡`이라는 게 엄청나게 쉬워진다는 데 있습니다.  

흔히들 작곡을 배운다고 하면 `화성학`을 배우라고 하는데 화음을 컴퓨터가 자동으로 넣어주고, 드럼도 자동으로 쳐주고, 이를 베이스로 연결해 주는 것을 컴퓨터가 해준다면 전혀 배울 필요가 없지는 않더라도, 어느 정도 개념만 잡고 있으면 됩니다.

결국 멜로디만 만들고, 멜로디 조차도 생성해 주는 플러그인을 이용하면, 좀 더 과감하게 말한다면 계속 생성을 시켜서, 마음에 드는 부분만 그대로 두고, 나머지를 계속 생성해 멜로디를 만들고 나머지는 AI가 다 하게 놔두면 됩니다.  

프로의 경우도, 버는 돈은 적어질지 몰라도, 만드는데 점점 비용이 절감될 가능성이 큽니다.   당장 음악을 만들어, 가이드 보컬 트랙만 만들려고 해도 자기가 노래를 부를 수 없으면 누구에게 부탁을 해야 합니다.  지인이라고 하더라도 밥이라도 사줘야겠지만 앞으로는 컴퓨터로 하면 됩니다.  

프로 뮤지션이라 노래를 잘한다고 하더라도 트랙을 만들 수 없는 사람들도 있습니다. 이분들은 노래를 해놓고 나머지를 컴퓨터에게 완성하게 합니다.


< 로직 프로 11의 세션 플레이어 기능 >

일부는 AI를 불신하여 자기가 작업을 웬만큼 다 한다고 하더라도 시간을 크게 단축시킬 수 있습니다.  아무리 음악의 신이라고 하더라도 보컬, 베이스 연주, 피아노 연주, 드럼 연주, 거기에 믹싱과 마스터링을 모두 할 수 있는 사람은 거의 없습니다만, 그중의 일부를 AI가 해주기 대문에 크게 시간이 단축되는 것입니다.

솔직히 주변에 프로분들은 위기라고 생각하시면서도 그렇게 지금 와닿지는 않는다고 합니다. 몇몇 분들은 AI를 적극 활용하여 레슨 프로그램을 만든다고 하시는 분들도 있고, 몇몇 회사에서는 AI 스튜디오도 준비한다고 합니다.

[좀 더 구체적으로 어떤 부분에 도움이 되며, 될까?]

지금도 가능하지만 연말쯤 되면 상당히 보편적인 작업이 AI로 이루어질 것입니다.  

여러분이 흔히 말하는 깡초보다.  

전혀 음악적인 지식은 없고 그냥 음악 많이 들었고, 음악을 좋아하고... 악기 같은 건 몇 달 배우다 말았다... 피아노는 초등학교 때 한 1년 다녔다.  요즘 이 정도 분들 많죠.  

이런 분들은 과거 같으면 한 5년은 배워야 그나마 들을 만한 음악을 만들고 믹싱도 해냅니다. 하지만 이제는 AI 작업 툴을 사용하여, 몇개월아니 빠르면 몇일만에 음악을 10년 정도 한 사람처럼 간단한 밴드 음악 정도나 EDM은 쉽게 만들어 낼 수 있습니다.   


그게 최고의 전문가가 만들어낼 정도의 퀄리티가 높을 정도는 아니지만 내가 머릿속에 상상한 정도의 70~80%는 완성할 수 있다는 것입니다. 드림 컴 트루~


< 녹음된 트랙이나 연주된 트랙에 특유의 색채를 가미하는 로직 프로 11의 크로마 그로우 기능 >

만약 여러분이 괜찮은 뮤지션이어서 작곡, 편곡, 연주까지 다 하는데 그런 분들도, 믹싱과 마스터링은 어려워합니다.  

물론 나중에 정식으로 음반을 출시하게 되면 전문 마스터링 스튜디오에 맡겨야 하겠지만, 데모 트랙을 만든다든지, 데모 트랙을 제출해야 한다든지 과정에서는 AI 믹싱과, 마스터링 기능이 괜찮을 수도 있습니다.

아마 이제 조만간 강좌도 AI를 이용한 음악 만들기 등의 강좌가 생길 것으로 예측합니다.  준비하는 분들도 있더라고요.

[한 3~4년 정도 지나 고도화가 되면 어떻게 될까?]

미래를 예측하는 것은 정말 어렵지만 그냥 제 생각을 말씀드리겠습니다.

먼저 오토튠(Antares Auto-Tune)이 등장할 때를 생각해 볼 필요가 있습니다. 오토튠의 등장 시에는 “목소리 자체가 기계적” “가창력이 문제가 되지 않게 된다” “여러 뮤지션들이 다 비슷한 소리를 내게 된다.” “한참 지나면 가수의 가창력 자체가 떨어질 것이다.”라는 우려들이 많았지만, 지금은 오토튠을 사용하는 건 전혀 문제가 되지 않고, 다양한 톤 보정 프로그램을 사용합니다.  

DAW에서도 상위 버전으로 가면 가장 차이가 나는 것이 톤 보정 기능을 탑재하고 있으냐 아니냐입니다. 예를 들어 FLSTUDIO 프로듀서 버전과 시그니처 버전의 차이는 톤 보정 기능인 'NewTone'의 유무가 가장 큽니다.

위에서 설명드린바와 같이 RVC나 보이스 생성, 멜로디 생성, 코드 트랙 생성, 자동 악기 연주 등 수많은 AI는 많은 인간의 영역을 보정할 것이고, 일부는 대체할 것입니다.  좀 더 쉽게 "창의적이지 않은 방법으로" 음악을 만들게 되면서 작곡가의 가치는 어느 정도 하락할 것 입니다. 

반대 급부로 AI에는 할 수 없는 인간만의 새로운 음악성이나 가능성은 더욱더 평가를 높게 받을 수 있습니다.  특히 실제로 퍼포먼스를 할 수 있는 능력은 인간만이 할 수 있는 것으로 (이마저도 로봇이 대체할 수도 있겠지만...) 가수로서의 가치는 더 커질 수 있습니다.  귀신 처럼 1~2년사이에 실용 음악과에 보컬만 몰리는 이유에 대한 답이 될 수도 있습니다.


< 너바나, 커트 코베인의 MTV 언플러그드 공연 >

또한 나올 장르란 장르는 다 나왔지만, AI를 전혀 사용하지 않은 음악이라든지, AI와 관계없는 복고풍 음악들이.. 새로운 장르를 형성하여 새로운 시장을 창출할 수 있습니다. 진짜 사람이 연주하고, 기계의 도움이 없이 진짜 사람이 부르는.. 

아마 기존에 작곡가들은 적극적으로 AI를 이용하여 타협하는 분들은 어느 정도 일을 찾을 수는 있을지 모르겠습니다만, 정상급 작곡가나 기존에 IP(지적재산권)을 많이 보유하신 분들이 아난 대부분의 일반 작곡가는 어려움을 겪을 것이고, 업계를 떠나는 분들도 계실거고 아니면 종합 엔터테이너(유튜브 방송인 겸 등)로 전향을 하는 분들도 생길 것입니다.

음악을 만드는 과정은 극적으로 변화할 가능성이 높습니다.  

DAW도 지금의 노트(Notes)나 파형과 달리 대화형으로 발전할 가능성이 높다고 생각합니다. 


이런 화면에서 이렇게 정겨운 대화로 할 수 있다는 것이죠.


< 앗 이런 대화는 아닌가? >

예를 들어 "베이스 톤을 좀 더 두껍게 깔아주세요", "좀 더 신나는 느낌으로 기타를 연주해 주세요.", "드럼을 칠 때 스네어를 때려 부순다는 생각으로 강하게 쳐주세요.", "보컬 후렴이 좀 더 나긋나긋하게 했으면 좋겠어요" 등등 부탁에서부터...


내가 작곡하는데 그런 거까지 알아야겠니?

그냥 알아서 하라~

이런 식으로 대화형으로 바뀔 가능성도 높다고 봅니다.

[그러면 시작하려면 뭘 준비해야 하나?]

기존에 제가 업으로 삼고 계신분들에게 무엇을 준비해야 할 것 같다고 말할 군번도 아니고, 능력도 되지 못하므로 그 부분은 생략하겠습니다.  

하지만 지금 시작하려는 분들께는, 먼저 해본 사람으로써, 어느 정도 이야기를 할 수 있을지도 모릅니다.

사실 사람들이 굉장히 똑똑해서 작년에 실용음악과 입시에서 미디 작곡이나 엔지니어링 쪽보다 보컬 파트가 지원자가 압도적으로 많았다고 합니다.    사실 AI 작곡이 되는 마당이 위험 회피는 당연하다고 보며, AI가 할 수 없는 퍼포머의 영역으로 가는 것은 어쩌면 당연할수 도 있습니다.

그래서 일부 대학들은 미디 작곡이 굉장히 중요하기 때문에 보컬을 뽑지만 부전공을 미디 작곡을 하게 했다고 하는 곳도 있고... 일부는 복잡한 작곡보다 음원 에디팅이나 레코딩 부분에 비중을 좀 더 두었거나 내년부터 커리큘럼을 수정한다고도 하는데요. 

작곡이 AI로 쉬워진 만큼, `퍼포머`로써 인간의 능력은, 지금보다는 더 극대화되어야 할 것입니다.


인간만이 가능한 퍼포먼스 같은 것과 또 인간만이 할 수 있는 창의적인 발상 등이죠.  만약 AI가 어떤 참신한 아이디어를 냈다고 하더라도 결국 최종적으로 인간이 이를 표현해야 합니다.  AI가 시키는 대로 해야 하나? 더 무서운 세상인가?

그리고 레코딩, 믹싱, 마스터링 등이 좀 더 쉬워질 것이지만 아무것도 안 하고 그냥 텍스트를 쳐서 음악을 만든 사람과 뭔가를 하고 AI를 이용한 사람의 결과물의 차이는 많을 겁니다.

예전에 시작하신 분들은 그동안 이렇게 십 년 넘게 배워온 기능이 한순간에 AI가 하게 되었다고 생각하는 분들도 있겠지만, 그만큼 심도 높게 AI를 이용하여 더욱 그레이트 한 창작물을 만들 수 있고, 초보자는 지금이 오히려 과거의 방식과, 현재의 변화, 미래의 작업 방식을 배울 엄청난 기회인지도 모릅니다.

물론 AI에 대한 우려가 있는 것도 사실입니다. 저작권에서부터, 인간의 대체(대체 인간은 이제 무얼해야하지?) 등입니다만 그러한 문제는 시간이 지나면서 대책이 마련될 것입니다.  적절한 법령의 마련(AI 기본법 등)과 최종 수단으로써 세금부과, AI의 저작권 독식 반대 기존 산업보호 및 지원 등등입니다.

그리고 지금 무료인 각종 AI가 언제까지나 무료이겠습니까?  

언젠가 유료화되고 큰 금액을 내야 할 수도 있습니다. 넷플릭스 구독료가 점점 올라가고, 각종 프로그램이 점점 월과금제로 바뀌는 것처럼...사실 이거저거 다 구독하면 이제 10만원 넘어갈 지경인데 AI도 이거저거 구독하면 게다가 음악과 같이 전문적인 분야라면 수십만원이 한방에 깨질 수도 있습니다. (사실 지금도 깨지는 분들이 많음)

그러니 지금 무료로 막 풀릴 때, 마음 껏 사용해보고, 유료로 전환하더라도 초기 유저가 되는 것도 이익 일 수 있습니다. 


지금은 폭발적으로 AI 기능이 발전하고 있으므로, 하루라도 빨리 AI에 탑승하는 게 좋을 수도 있습니다.

늦었다고 생각할 때가 가장 빠를 때입니다.

IT의 역사를 보면, 구미디어가 신미디어, 구 기술이 신기술의 방어에 성공한적이 없었습니다.  스마트폰이 나오자 피쳐폰, 세계 최대의 노키아 같은 휴대폰 업체 자체가 휴대폰 사업을 접었습니다.  

제 경험으로 볼 때 일단 추세에 순응해야 할 것 같습니다.  주식격언인가? 추세에 순응하라...

누군가 그러더군요.  피할 수 없으면 즐겨라... 개인적으로 제일 싫어하는 말이긴 한데..

마지막으로 반박 시 제 말은 틀리고 여러분 말씀이 옳습니다!!

댓글목록0

등록된 댓글이 없습니다.
게시판 전체검색