My AI Smarteasy에서 프롬프트 작성하기 – 구글 노트북LM에 비디오 오버뷰 기능 도입
구글, 노트북LM에 ‘비디오 오버뷰’ 기능 도입 < 산업일반 < AI산업 < 기사본문 – AI타임스
Introducing NotebookLM Video Overviews
안녕하세요, 대한민국 최고의 일타 강사 저스틴입니다! 오늘은 여러분과 함께 구글의 최신 AI 기술 혁신을 깊이 파헤쳐보는 시간을 갖겠습니다. 이번 강의는 두 가지 자료를 기반으로 진행됩니다. 첫째는 AI타임스의 박찬 기자님이 작성한 기사 ‘구글, 노트북LM에 비디오 오버뷰 기능 도입’, 둘째는 구글의 유튜브 채널에서 제공된 ‘Introducing NotebookLM Video Overviews’ 스크립트입니다. 두 자료를 합쳐서 구글의 새로운 학습 도구가 어떻게 우리의 공부와 연구 방식을 바꿀지 명쾌하게 풀어보겠습니다. 자, 준비되셨죠? 시작합니다!
강의 본문: 구글의 AI 혁신, NotebookLM과 AI 모드의 대변신
1. NotebookLM의 핵심 신기능, ‘비디오 오버뷰’란 무엇인가?
먼저, 두 자료에서 공통적으로 강조되는 NotebookLM의 신기능 ‘비디오 오버뷰(Video Overviews)’부터 살펴보죠. 이 기능은 복잡한 문서, PDF, 이미지 등을 시각적으로 이해하기 쉽게 요약한 프레젠테이션 형식으로 변환해주는 도구입니다. AI타임스 기사에 따르면, 이는 기존 ‘오디오 오버뷰(Audio Overviews)’의 시각화 버전으로, 슬라이드쇼와 내레이션을 결합해 학습을 더 직관적으로 만든다고 해요. 유튜브 스크립트에서는 AI 호스트가 문서에서 이미지와 다이어그램을 끌어와 새로운 시각 자료를 생성하며 핵심 포인트를 설명한다고 구체적으로 보여줍니다.
비유를 들어볼게요. 여러분이 두꺼운 책을 읽어야 하는데 시간이 부족할 때, 누가 핵심 내용을 그림과 함께 10분 만에 설명해준다면 얼마나 좋겠어요? 비디오 오버뷰가 바로 그런 역할을 합니다. 자, 이 부분은 별표 세 개!* 구글은 이 기능을 통해 데이터 설명, 과정 시연, 추상 개념 전달이 훨씬 효과적이라고 강조하고 있어요. AI타임스 기사에서는 사용자가 주제, 학습 목표, 타깃 청중을 설정해 맞춤형 콘텐츠를 만들 수 있다고 했고, 유튜브에서는 초현실주의(Surrealism)를 예로 들어 살바도르 달리(Salvador Dalí)와 르네 마그리트(René Magritte)의 작품을 시각적으로 소개하며 타임라인으로 기원을 정리하는 모습을 보여줬습니다. 현재 이 기능은 영어로 먼저 제공되며, 두 자료 모두 다른 언어 지원이 곧 이어질 것이라고 전하고 있으니 우리나라 사용자들도 기대해도 좋겠습니다.
2. 사용자 편의성과 스튜디오 패널의 업그레이드
비디오 오버뷰는 단순히 영상을 제공하는 데 그치지 않습니다. AI타임스 기사에 따르면, 재생 속도 조절이나 10초 단위 앞뒤 이동 같은 플레이백 제어 기능이 포함되어 사용자가 편리하게 학습할 수 있도록 설계됐어요. 또한 NotebookLM의 ‘스튜디오(Studio)’ 패널이 대폭 개선되었는데, 하나의 노트북에서 오디오 오버뷰, 비디오 오버뷰, 마인드맵, 보고서 등을 클릭 한 번으로 생성하고 저장할 수 있다고 합니다. 유튜브 스크립트에서도 이 점을 강조하며, 새롭게 재설계된 스튜디오 패널이 다양한 형식의 콘텐츠를 쉽게 만들고 공유할 수 있게 한다고 소개하고 있어요. 심지어 오디오를 들으며 마인드맵을 탐색하거나 학습 가이드를 검토하는 멀티태스킹도 가능하다는 점이 매력적입니다. 유튜버는 이 업데이트가 몇 주 내 모든 사용자에게 적용될 것이라고 전하며 직접 체험을 독려하고 있네요.
3. AI 모드의 신기능: 캔버스와 시각 기반 검색
AI타임스 기사에서는 NotebookLM뿐만 아니라 구글의 실험적 검색 기능인 ‘AI 모드(AI Mode)’의 업데이트 내용도 다루고 있어요. AI 모드에 추가된 ‘캔버스(Canvas)’는 여러 세션에 걸쳐 정보를 정리하고 학습 계획을 세울 수 있는 측면 패널입니다. 앞으로 수업 노트나 강의 계획서 같은 PDF를 업로드해 개인화된 학습 가이드를 만들 수 있다고 하니 학생들에게 특히 유용할 것 같아요. 이 기능은 미국 데스크톱 사용자들을 대상으로 몇 주 내 적용될 예정이라고 합니다.
또 한 가지 주목할 점은 시각 기반 검색 기능의 강화입니다. 구글 렌즈(Google Lens)를 통해 카메라로 찍은 대상을 실시간으로 AI에 질문할 수 있게 됐어요. 예를 들어, 수학 문제 속 도형을 가리키며 “이거 어떻게 푸는 거야?”라고 물으면 AI가 이미지를 분석해 핵심 정보를 요약해주는 ‘AI 개요(AI Overview)’를 제공합니다. 이후 대화로 더 깊은 학습도 가능하죠. 데스크톱에서는 이미지나 PDF 파일 업로드 후 질문을 할 수 있고, 조만간 구글 드라이브 파일까지 지원할 계획이라고 하니 정말 기대됩니다.
4. 구글의 목표와 NotebookLM의 본질
두 자료 모두 구글의 이러한 업데이트가 단순한 기능 추가를 넘어서는 의미를 가진다고 전하고 있어요. AI타임스 기사에서는 구글이 AI 모드를 통해 학생들이 시험 준비나 배운 내용을 깊이 탐구하도록 돕는 것이 목표라고 밝혔고, 학습 보조 도구 시장에서의 영향력을 확대하려는 전략이 배경이라고 분석하고 있습니다. 유튜브 스크립트에서는 NotebookLM을 사용자가 신뢰하는 정보에 기반한 연구 및 사고 파트너로 정의하며, 최신 Gemini 모델을 활용해 학습과 정보 탐색의 새로운 방식을 제시한다고 강조하고 있어요. 다시 말해, AI 기술이 단순히 검색을 넘어 학습과 교육의 본질적인 도우미로 자리 잡고 있다는 메시지가 두 자료에서 공통적으로 드러납니다.
강의 마무리: 구글 AI가 바꿀 학습의 미래
자, 오늘 강의에서 다룬 내용을 정리해볼게요. 구글은 NotebookLM의 ‘비디오 오버뷰’ 기능을 통해 복잡한 자료를 시각적으로 쉽게 이해할 수 있는 학습 도구로 한 단계 업그레이드했어요. 스튜디오 패널의 개선으로 다양한 콘텐츠를 손쉽게 생성하고 공유할 수 있게 됐으며, AI 모드의 ‘캔버스’와 시각 기반 검색 기능 강화로 학습 경험을 더욱 개인화하고 깊이 있게 만들고 있습니다. AI타임스 기사와 유튜브 스크립트에서 공통적으로 전달하고자 하는 최종 메시지는 명확합니다. 구글의 AI 기술은 단순한 도구를 넘어, 우리가 정보를 이해하고 연구하는 방식을 근본적으로 혁신하는 파트너라는 점이에요.
여러분, 구글의 이런 기술이 우리의 공부 방식과 정보 접근 방식을 어떻게 바꿀지 한번 고민해보세요. 저스틴 강사와 함께하는 강의, 오늘도 머리에 쏙쏙 들어가셨길 바랍니다! 다음 강의에서 더 유익한 주제로 찾아뵙겠습니다. 수고하셨습니다!