메타가 4,000개 이상의 음성 언어를 식별하고, 약 1,100개의 언어를 음성에서 텍스트, 또는 텍스트에서 음성으로 변환해주는 ‘대규모 다국어 음성인식(Massively Multilingual Speech, 이하 MMS)’ AI 모델을 오픈소스로 공개했다.

현재 지구상에 사용되는 언어의 수는 7,000개가 넘는 것으로 알려져 있는데, 기존 음성 인식 모델은 최대 100여 개의 언어만을 지원한다는 한계가 있었다. 메타가 이번에 공개하는 AI 모델은 음성-텍스트 변환 및 텍스트-음성 변환이 가능한 언어의 수를 기존 100여 개에서 1,107개로 10배가량 확대했으며, 음성으로 식별 가능한 언어의 수를 4,000개 이상으로 40배가량 늘렸다는 점에서 유의미하다.

지원 언어 수의 증가뿐만 아니라, MMS 프로젝트를 통해 훈련된 AI 모델은 기존 음성 변환 모델과 비교했을 때 우수한 성능을 자랑한다. 메타의 분석 결과, 음성 변환 언어의 수를 61개에서 1,107개로 18배가량 늘렸을 때 문자 오류율은 단 0.4% 증가했다. 또한 오픈AI의 음성인식 모델 ‘위스퍼(Whisper)’와 유사 비교를 수행한 결과, MMS 데이터로 교육된 모델은 단어 오류율을 절반으로 줄이면서도 11배 더 많은 언어를 처리할 수 있는 것으로 나타났다.

메타는 언어 다양성 보존에 기여하고, AI 생태계 전반의 발전과 책임 있는 개발을 위해 MMS 모델과 코드를 오픈소스로 공개한다는 방침이다. 또한 수천 개의 언어를 지원하는 단일 음성 모델 구축을 위해 적용 언어 범위를 늘릴 예정이다.

원문링크 https://platum.kr/archives/207471