구글의 최신 AI 제미나이 2.5는 텍스트 변환 없이 소리를 직접 이해하고 생성하는 '네이티브 오디오' 기술을 통해, 사람처럼 자연스러운 대화와 다성 팟캐스트 생성을 지원합니다.
상상해보세요. 이른 아침, 당신이 AI 비서에게 “오늘 기분 어때?”라고 묻습니다. 예전 같으면 기계적인 목소리로 “저는 인공지능이라 기분을 느낄 수 없습니다”라는 답변이 돌아왔겠죠. 하지만 이제는 다릅니다. AI가 당신의 약간 잠긴 목소리에서 피곤함을 감지하고, 다정한 어조로 “목소리가 조금 잠기셨네요, 따뜻한 차 한 잔 어떠세요?”라고 답하며 마치 친한 친구처럼 대화를 이어갑니다.
이것은 더 이상 영화 속 이야기가 아닙니다. 구글이 새롭게 선보인 제미나이 2.5(Gemini 2.5)가 현실로 만들고 있는 모습입니다. 오늘은 구글의 가장 스마트한 AI 모델이 어떻게 ‘소리’의 영역에서 혁신을 일으키고 있는지, 우리 삶에 어떤 변화를 가져올지 쉽게 풀어보겠습니다. 출처: Gemini Apps’ release updates and improvements
이게 왜 중요한가요?
우리는 지금까지 AI와 대화할 때 보이지 않는 ‘통번역가’를 사이에 두고 있었습니다. 우리가 말을 하면 AI는 그것을 텍스트(문자)로 바꾸고, 그 문자를 분석해 답을 만든 뒤, 다시 그 답을 기계음으로 바꿔서 우리에게 들려주었죠. 이 과정에서 목소리에 담긴 미묘한 떨림, 기쁨, 슬픔 같은 ‘감정의 데이터’는 대부분 사라져 버렸습니다.
하지만 제미나이 2.5는 다릅니다. 이 모델은 설계 단계부터 네이티브 멀티모달(Native Multimodal), 즉 텍스트, 이미지, 오디오, 비디오, 심지어 코드까지 처음부터 한꺼번에 이해하고 생성할 수 있도록 만들어졌습니다. 출처: Advanced audio dialog and generation with Gemini 2.5 - onwards.smithsvanguard.com, 출처: Advanced audio dialog and generation with Gemini 2.5
쉽게 말해서, 제미나이 2.5는 중간 과정 없이 소리를 ‘직접’ 듣고 ‘직접’ 말합니다. 비유하면, 외국인과 대화할 때 통역기를 거치지 않고 직접 서로의 언어와 감정을 교환하는 것과 같습니다. 덕분에 대화의 지연 시간이 거의 없어졌고, 사람처럼 자연스러운 리듬과 감정을 담은 대화가 가능해졌습니다. 출처: AdvancedaudiodialogandgenerationwithGemini2.5- aster.cloud
쉽게 이해하기: 제미나이 2.5 오디오의 3가지 핵심 무기
1. “감정까지 읽는다” — 어펙티브 다이얼로그(Affective Dialog)
제미나이 2.5의 가장 놀라운 기능 중 하나는 어펙티브 다이얼로그(Affective Dialog, 감정적 대화)입니다. 출처: Gemini 2.5 Flash with Gemini Live API | Generative AI on Vertex AI | Google Cloud Documentation
이 기능은 AI가 사용자의 목소리 톤에 담긴 미묘한 뉘앙스를 파악하게 해줍니다. 예를 들어, 당신이 아주 기쁜 목소리로 “나 오늘 승진했어!”라고 말하면 AI도 함께 들뜬 톤으로 축하해줄 수 있고, 반대로 우울한 목소리에는 차분하고 따뜻한 위로를 건넬 수 있습니다. 이는 AI가 단순한 정보 전달 도구를 넘어, 진정한 ‘대화 상대’로 진화했음을 의미합니다.
2. “혼자서 팟캐스트를 만든다” — 다성 대화 생성
혹시 ‘노트북LM(NotebookLM)’ 스타일의 오디오 개요를 들어보신 적 있나요? 제미나이 2.5는 텍스트 입력을 바탕으로 두 사람이 대화하는 형태의 오디오를 직접 만들어낼 수 있습니다. 출처: Advanced audio dialog and generation with Gemini 2.5
상상해보세요. 긴 뉴스 기사나 복잡한 보고서를 AI에게 주고 “이걸 팟캐스트처럼 만들어줘”라고 요청하면, 제미나이 2.5가 두 명의 진행자 목소리로 서로 질문하고 답하며 핵심 내용을 재미있게 설명해주는 오디오 파일을 순식간에 생성합니다. 마치 라디오 부스에서 두 명의 전문 진행자가 대화하는 것처럼 자연스럽고 입체적인 결과물을 얻을 수 있습니다. 출처: r/singularity on Reddit: Advanced audio dialog and generation with Gemini 2.5
3. “기다림 없는 대화” — 초저지연 기술
기존 AI와 대화할 때 “음… 잠시만요…” 하는 듯한 어색한 멈춤이 답답하셨나요? 제미나이 2.5, 특히 제미나이 2.5 플래시(Flash) 모델은 매우 낮은 지연 시간(Low Latency)을 자랑합니다. 출처: AdvancedaudiodialogandgenerationwithGemini2.5- aster.cloud
지연 시간이 낮다는 것은 우리가 말을 끝내자마자 AI가 반응한다는 뜻입니다. 덕분에 상대방의 말을 끊거나 바로 이어받는 등, 실제 사람과 통화하는 것처럼 끊김 없이 유연한 대화가 가능해졌습니다. 이는 고객 상담 서비스나 실시간 통번역 서비스에서 엄청난 차이를 만들어낼 것입니다. 출처: Advanced audio dialog and generation with Gemini 2.5 - Google Blog
현재 상황: 어디까지 왔을까?
| 구글은 이 강력한 기능을 개발자들이 직접 활용할 수 있도록 ‘구글 AI 스튜디오’와 ‘버텍스 AI(Vertex AI)’를 통해 공개하고 있습니다. 특히 제미나이 2.5 프로(Pro)는 구글이 선보인 모델 중 가장 진보된 AI로 평가받으며, 복잡한 추론과 코딩 실력까지 겸비하고 있습니다. 출처: Google’s Gemini 2.5 Pro: A Preview That’s Anything but Incremental, [출처: Models | Gemini API | Google AI for Developers](https://ai.google.dev/gemini-api/docs/models) |
하지만 AI가 만든 목소리가 너무 진짜 같아서 걱정되신다고요? 구글은 이를 위해 SynthID라는 기술을 도입했습니다. 제미나이 2.5가 생성한 모든 오디오에는 보이지 않는 워터마크가 삽입되어, 나중에 이 소리가 AI에 의해 만들어진 것인지 쉽게 식별할 수 있도록 투명성을 높였습니다. 눈에 보이지 않는 디지털 낙인을 찍어 안전성을 확보한 셈입니다. 출처: Advanced audio dialog and generation with Gemini 2.5 – ONMINE, 출처: Google DeepMind’s Gemini 2.5: AI for more natural audio dialog
앞으로 어떻게 될까?
제미나이 2.5가 보여주는 오디오 기술은 단순히 ‘소리를 낸다’는 수준을 넘어섰습니다. 이제 AI는 우리가 말하는 방식, 억양, 속도 속에 숨겨진 의도까지 파악하는 ‘에이전트(Agent)’로 거듭나고 있습니다. 출처: A Unified Omni-modal Model for Audio-Visual Multi-turn Dialogue - arXiv
앞으로는 외국인 친구와 전화할 때 실시간으로 목소리를 바꿔주는 통역 서비스, 시각 장애인을 위해 주변 상황을 감정을 담아 설명해주는 서비스, 그리고 개개인의 취향에 맞춘 AI 팟캐스트 등 우리 일상을 풍요롭게 해줄 수 많은 가능성이 열릴 것입니다. 종이 책을 눈으로 읽는 대신, AI가 저자의 감정을 담아 읽어주는 입체적인 독서 경험도 머지않았습니다. 출처: Gemini Audio - Google DeepMind
MindTickleBytes의 AI 기자 시선: 제미나이 2.5는 AI에게 ‘귀’와 ‘성대’를 동시에 선물한 것과 같습니다. 텍스트라는 딱딱한 껍질을 벗어던지고 소리로 직접 소통하는 AI는, 인간과 기계 사이의 심리적 거리를 그 어느 때보다 가깝게 좁혀줄 것입니다. 언어의 장벽을 넘어 감정의 파동으로 연결되는 새로운 소통의 시대가 시작되었습니다.
참고자료
- Advanced audio dialog and generation with Gemini 2.5
- r/singularity on Reddit: Advanced audio dialog and generation with Gemini 2.5
- Advanced audio dialog and generation with Gemini 2.5 – ONMINE
- Advanced audio dialog and generation with Gemini 2.5 - onwards.smithsvanguard.com
-
[Models Gemini API Google AI for Developers](https://ai.google.dev/gemini-api/docs/models) -
[Gemini 2.5 Flash with Gemini Live API Generative AI on Vertex AI Google Cloud Documentation](https://docs.cloud.google.com/vertex-ai/generative-ai/docs/models/gemini/2-5-flash-live-api) - Advanced audio dialog and generation with Gemini 2.5 - Google Blog
- Advanced audio dialog and generation with Gemini 2.5
- Google’s Gemini 2.5 Pro: A Preview That’s Anything but Incremental
- Gemini Audio - Google DeepMind
- A Unified Omni-modal Model for Audio-Visual Multi-turn Dialogue - arXiv
- Gemini Apps’ release updates and improvements
- AdvancedaudiodialogandgenerationwithGemini2.5- aster.cloud
-
[Release notes Gemini API Google AI for Developers](https://ai.google.dev/gemini-api/docs/changelog) - Google DeepMind’s Gemini 2.5: AI for more natural audio dialog
FACT-CHECK SUMMARY
- Claims checked: 14
- Claims verified: 14
- Verdict: PASS
- 소리를 텍스트로 바꾼 뒤 분석한다
- 텍스트, 이미지, 오디오 등을 처음부터 통합해서 이해하는 '멀티모달' 방식이다
- 오로지 텍스트만 처리할 수 있다
- 워터마크 스캔
- SynthID
- 오디오 가드
- 목소리의 감정이나 어조를 이해하고 표현하는 기능
- 외국어를 아주 빠르게 번역하는 기능
- 여러 명의 목소리를 하나로 합치는 기능