네이버 클로바X 사용법 (신청방법, 더빙기능, 활용팁)

네이버가 2022년 말부터 베타 서비스를 시작한 하이퍼클로바X는 한국어에 특화된 초거대 언어 모델(LLM)입니다. 일반적으로 AI 챗봇이라고 하면 챗GPT를 떠올리는 분들이 많은데, 제가 직접 두 서비스를 비교해본 결과 국내 정보 검색과 쇼핑 관련 질문에서는 클로바X가 훨씬 정확했습니다. 특히 네이버가 그동안 축적한 방대한 데이터를 활용할 수 있다는 점이 가장 큰 차별점이었습니다. 클로바X 신청방법과 대기 현황 클로바X를 사용하려면 먼저 베타 테스터로 등록해야 합니다. 네이버 검색창에 '하이퍼클로바X'를 입력하고 공식 홈페이지에 접속하면 우측 하단에 '클로바X 베타 테스터 모집' 버튼이 보입니다. 여기서 대기 등록을 하면 평균 2~3일 내로 이메일로 승인 안내가 옵니다. 제가 신청했을 때는 이틀 만에 승인 메일을 받았는데, 현재는 신청자가 계속 늘어나면서 대기 기간이 조금씩 길어지고 있는 추세입니다. 승인 메일을 받은 후에는 네이버 로그인만 하면 바로 클로바X를 사용할 수 있습니다. 인터페이스는 챗GPT와 유사하지만, 네이버 쇼핑과 여행 정보를 연동할 수 있는 '스킬' 기능이 추가로 제공됩니다. 입력창 우측의 화살표 버튼을 누르면 네이버 쇼핑과 네이버 여행 스킬을 활성화할 수 있는데, 이 기능을 켜두면 실시간 가격 비교와 판매처 정보까지 한 번에 확인할 수 있습니다. 솔직히 이 부분은 해외 AI 챗봇이 절대 따라올 수 없는 강점입니다. 쇼핑과 여행 정보 검색의 실전 활용 클로바X의 쇼핑 스킬을 활용하면 네이버 쇼핑 검색을 일일이 하지 않아도 됩니다. 예를 들어 "제주 삼다수 2리터 6개 최저가 알려줘"라고 질문하면, 네이버 쇼핑에서 판매 중인 제품의 최저가와 판매처를 바로 보여줍니다. 제가 테스트했을 때 5,400원대 제품 여러 개를 비교해줬는데, 배송비 별도라는 주의사항까지 친절하게 안내해줬습니다. 이런 방식으로 생필품이나 전자제품 가격을 비교할 때 시간을 크게 절약할 수 있습니다. ...

AI 자기소개서 작성법 (인생지도, 포트폴리오, 프롬프트)

자기소개서 쓸 때마다 막막하지 않으셨나요? 솔직히 저도 처음엔 AI로 자소서를 쓴다는 게 좀 찜찜했습니다. 그런데 막상 해보니 AI는 단순히 글을 대신 써주는 도구가 아니라, 제 경험과 생각을 체계적으로 정리해주는 훌륭한 파트너였습니다. 중요한 건 AI에게 어떤 데이터를 주고, 어떻게 대화를 이끌어가느냐였습니다. 오늘은 제가 직접 실험해본 AI 자기소개서 작성 과정을 단계별로 나눠드리겠습니다. 자기소개서, 겸손과 자랑 사이 어디쯤이 정답일까요? 자소서를 쓸 때 가장 먼저 부딪히는 고민이 바로 이겁니다. "나를 너무 내세우면 건방져 보이고, 너무 겸손하면 매력이 없어 보이는데 어떻게 써야 하지?" 정답은 의외로 간단했습니다. 바로 팩트(Fact), 즉 사실에 근거해서 쓰는 것입니다. 팩트에 입각해서 글을 쓰면 그건 자랑이 아니라 자기 어필이 됩니다. 예를 들어 "저는 뛰어난 기획력을 가지고 있습니다"라고 쓰는 대신, "A 프로젝트에서 3개월간 데이터를 분석해 클릭률을 15% 높였습니다"라고 구체적으로 적으면 됩니다. 이렇게 쓰면 겸손도 자랑도 아닌, 명확한 사실 전달이 되는 거죠. 여기서 핵심은 평소에 자기 경험을 기록으로 남겨두는 습관입니다. 기억에만 의존하면 나중에 자소서 쓸 때 "내가 뭐 했더라?" 하면서 막막해집니다. 저는 구글 독스(Google Docs)에 생각날 때마다 메모를 남겨두는 방식을 추천합니다. 어떤 업무를 했고, 그 과정에서 어떤 능력이 생겼는지, 어떤 결과가 나왔는지를 간단하게라도 적어두면 나중에 AI에게 이 자료를 넣었을 때 훨씬 구체적인 자소서가 나옵니다. 인생지도와 포트폴리오, AI에게 '나'를 학습시키는 방법 AI가 좋은 자소서를 써주려면 먼저 '나'라는 사람을 이해해야 합니다. 그래서 저는 인생지도(Life Map)라는 도구를 활용했습니다. 인생지도란 나의 꿈, 관계, 성장 과정, 취미 등을 시각적으로 정리한 자료를 ...

AI 보고서 작성법 (프롬프트, 단계별 작성, 실전 활용)

최근 직장인들 사이에서 AI를 활용한 보고서 작성이 화제입니다. 솔직히 저도 처음엔 반신반의했습니다. 과연 AI가 우리 회사 보고서 양식에 맞춰서 제대로 된 문서를 만들어줄까? 그런데 제가 직접 써보니 생각보다 훨씬 실용적이더군요. 다만 아무렇게나 질문을 던지면 엉뚱한 결과가 나옵니다. 핵심은 AI에게 어떻게 질문하느냐, 즉 프롬프트를 어떻게 구성하느냐에 달려 있습니다. 프롬프트 작성의 6가지 핵심 요소 AI에게 보고서를 요청할 때 가장 중요한 건 명확한 지시어입니다. 프롬프트(Prompt)란 AI에게 던지는 명령이나 질문을 뜻합니다. 쉽게 말해 AI와 대화할 때 쓰는 설명서 같은 거죠. 제가 여러 번 시행착오를 겪으며 알게 된 건, 프롬프트에 반드시 들어가야 할 요소가 6가지라는 점입니다. 첫째, 지시어입니다. "보고서를 작성해 주세요", "결과를 출력해 주세요"처럼 AI에게 무엇을 원하는지 명령문으로 명확히 전달해야 합니다. 둘째, 역할 명시입니다. "당신은 마케팅 리서치 전문가입니다"처럼 AI가 어떤 전문가 입장에서 답변할지 정해주는 겁니다. 셋째, 배경 또는 상황입니다. "저는 신규 오픈 예정인 건강식품 매장의 잠재 고객을 분석하려고 합니다"처럼 구체적인 맥락을 제공할수록 정확한 답변을 받을 수 있습니다. 넷째, 조건입니다. 기간(최근 5년간), 지역(서울시), 대상(20대) 등 추가적인 제약 조건을 명시하는 거죠. 다섯째, 답변 형식입니다. 표, 리스트, 단계별 가이드, 보고서 형식 등 원하는 출력 양식을 지정해야 합니다. 여섯째, 응답 수준입니다. 객관적 분석인지, 심층 분석인지, 초보자용인지, 전문가용인지를 제시하면 AI가 그에 맞춰 답변 깊이를 조절합니다. 이 6가지를 빠짐없이 넣으면 AI가 훨씬 똑똑하게 반응합니다. 단계별 보고서 작성 프로세스 실제로 보고서를 작성할 때는 한 번에 끝내려 하지 말고 3단계로 나눠서 진행하는 게 효과적입니다. 1단계는 초안 ...

AI 학습도구 (Felo, Edufit, Notebook LM)

AI 학습도구를 쓰면 공부가 정말 쉬워질까요? 일반적으로 많은 사람들이 AI만 있으면 학습이 자동으로 해결된다고 생각하는데, 저는 실제로 여러 도구를 써보면서 전혀 다른 결론에 도달했습니다. 도구가 아무리 좋아도 그걸 어떻게 활용하느냐에 따라 결과가 천지 차이였거든요. 오늘은 Felo, Edufit, Notebook LM이라는 세 가지 AI 학습 서비스를 직접 사용해본 경험을 바탕으로, 이 도구들이 정말 학습 효율을 높여주는지 검증해보겠습니다. Felo: 정보 검색부터 발표 자료까지 Felo는 자료 검색과 정리, 발표 준비를 한 번에 처리해주는 AI 도구입니다. 검색 결과를 보여주는 것에서 그치지 않고, 관련 이미지와 영상을 함께 제시하면서 "다음엔 이런 질문은 어떠세요?"라는 제안까지 덧붙입니다. 클릭 한 번이면 검색 내용이 마인드맵(Mind Map)으로 전환되는데, 이 마인드맵이란 정보를 시각적으로 구조화해서 보여주는 도식을 뜻합니다. 쉽게 말해 복잡한 개념들의 관계를 한눈에 파악할 수 있게 그림으로 정리해주는 거죠. 제가 직접 써봤을 때 가장 인상적이었던 건 PPT 자동 생성 기능이었습니다. 기존 AI 프레젠테이션 서비스들과 비교하면 Felo는 사용자가 제공한 정보를 훨씬 정확하게 반영해서 초안을 만들어줬습니다. 실제로 한 사례에서는 14페이지짜리 상세한 PPT가 자동으로 생성되기도 했는데, 단순히 정보만 나열하는 게 아니라 세련된 템플릿으로 구성돼 있어서 바로 발표에 쓸 수 있을 정도였습니다. 다만 무료 플랜에서는 PPT 생성 횟수에 제한이 있다는 점은 아쉬웠습니다( 출처: Felo 공식 사이트 ). Felo는 만들어진 PPT를 바로 편집하거나 파일로 다운로드할 수 있고, 노션(Notion)에 직접 저장하는 기능도 지원합니다. 검색 에이전트(Search Agent)라는 특화 기능을 쓰면 더 깊이 있는 정보를 찾을 수도 있습니다. 검색 에이전트란 사용자가 설정한 조건에 맞춰 자동으로 정보를 탐색하고 정리해주는 AI 기능을 ...

캡컷 자동자막 편집법 (음성인식, 커팅, 음량조절)

저는 캡컷으로 영상을 편집하면서 가장 놀랐던 기능이 하나 있습니다. 바로 자동 자막 생성 기능이었습니다. 제가 차 안에서 대본 없이 주절주절 떠든 영상을 편집할 때, 수동으로 자막을 달려면 최소 2시간은 걸릴 작업이었습니다. 그런데 캡컷의 자동 캡션 기능을 쓰자 5분 만에 전체 자막이 완성됐습니다. 물론 이 기능은 유료 결제가 필요하지만, 제 경험상 이건 돈이 전혀 아깝지 않은 투자였습니다. 오늘은 캡컷에서 자동 자막을 활용해 영상을 효율적으로 편집하는 방법을 단계별로 정리해드리겠습니다. 음성인식 자동자막, 유료지만 충분히 값어치 있습니다 캡컷에서 자동으로 자막을 생성하려면 텍스트 탭에서 '자동 캡션' 기능을 사용해야 합니다. 이 기능은 프로(Pro) 표시가 붙어 있어 유료 구독이 필요합니다. 저는 처음에 "굳이 돈을 내고 써야 하나?" 싶었는데, 막상 써보니 이건 편집 시간을 혁신적으로 단축시키는 도구였습니다. 자동 캡션 기능을 사용하는 방법은 간단합니다. 먼저 타임라인에 영상 소스를 불러온 뒤, 상단의 텍스트 탭으로 이동합니다. 여기서 자동 캡션을 선택하고 소스 언어를 한국어로 설정합니다. 보통 자동 감지로 되어 있지만, 정확도를 높이려면 한국어로 직접 지정하는 편이 좋습니다. 설정을 마치고 생성 버튼을 누르면 캡컷이 영상의 음성을 분석해 자막을 자동으로 생성합니다. 음성 인식률(Speech Recognition Rate)은 AI가 사람의 말을 얼마나 정확하게 텍스트로 변환하는지 나타내는 지표입니다. 캡컷의 한국어 음성 인식률은 제 경험상 약 90% 정도로, 발음이 명확하면 거의 완벽하게 인식합니다. 다만 전문 용어나 고유명사는 가끔 오타가 발생하므로, 생성 후 한 번 검토하는 과정이 필요합니다. 그래도 처음부터 수동으로 타이핑하는 것보다 훨씬 빠릅니다. 파형 보고 쉬는 구간 찾아 커팅하기 자막이 생성되면 본격적인 컷 편집에 들어갑니다. 컷 편집(Cut Editing)이란 영상에서 불필요한 부분을 잘라내...

캔바 AI 업데이트 (실전 활용, 한계점, 대안 비

2025년 11월, 캔바가 대규모 업데이트를 단행했습니다. AI 기능이 대폭 강화되면서 "이제 포토샵이나 파워포인트 없이도 되겠네"라는 말이 나올 정도였죠. 저도 마케팅 자료 만들 때 캔바를 자주 쓰는 편인데, 이번 업데이트 소식 듣고 바로 테스트해봤습니다. 솔직히 기대 반 의심 반이었는데, 써보니 확실히 달라진 부분들이 있더라고요. 다만 모든 기능이 완벽하진 않았습니다. 이번 글에서는 실제 사용 경험을 바탕으로 어떤 기능이 실전에서 유용한지, 그리고 한계는 무엇인지 함께 살펴보겠습니다. 캔바 AI 비서와 자동 생성, 실전 활용 가능할까 이번 업데이트의 핵심은 '캔바 AI에게 물어보기' 기능입니다. 기존에는 텍스트를 수정하려면 ChatGPT 같은 외부 도구를 쓰고, 다시 복사해서 붙여넣는 과정이 필요했죠. 이제는 캔바 내부에서 텍스트를 선택하고 상단의 AI 비서 탭을 누르면, 바로 제목 추천이나 문구 개선 제안을 받을 수 있습니다. 제가 "새로운 제목 세 가지 추천"이라고 입력했더니, 몇 초 만에 세 가지 옵션이 나왔고, 클릭 한 번으로 삽입할 수 있었습니다. 디자인 조언 기능도 흥미로웠습니다. 전체 디자인을 선택하고 "디자인에 대해 조언해주세요"라고 물어보면, 캔바 AI가 레이아웃, 색상, 텍스트 배치 등을 분석해서 개선 방향을 제시합니다. 예를 들어 "파란색 영역에 텍스트가 과도하게 배치되어 있으니, 핵심 문장 하나만 굵게 강조하라"는 식의 구체적인 피드백을 받았습니다. 디자인에 자신 없는 분들에게는 꽤 유용한 기능이라고 생각합니다. 하지만 한계도 분명했습니다. AI가 생성한 디자인 템플릿은 아직 한국 감성과 맞지 않는 경우가 많았습니다. 예를 들어 "비즈니스 플랜"이라고 검색하면 여러 템플릿이 나오는데, 대부분 영문 위주에 해외 스타일이라 국내 기업 프레젠테이션에 바로 쓰기엔 어색했습니다. 한글로 검색해도 결과는 비슷했고요. 물론 시간이 ...

스테이블 디퓨전 설치 (웹UI, 모델적용, 코랩활용)

솔직히 저는 스테이블 디퓨전을 처음 접했을 때 설치 과정이 이렇게 까다로울 줄 몰랐습니다. 일반적으로 AI 이미지 생성 프로그램은 그냥 다운받아서 클릭 몇 번이면 끝날 거라고 생각했는데, 막상 해보니 파일 경로부터 GPU 설정까지 신경 써야 할 부분이 꽤 많더군요. 제 경험상 초보자들이 가장 많이 막히는 지점은 모델 파일을 어디에 넣어야 하는지, 그리고 코랩(Colab) 환경에서 어떻게 무료로 돌릴 수 있는지였습니다. 이 글에서는 제가 직접 삽질하면서 터득한 설치 과정과 실전 팁을 최대한 구체적으로 풀어보겠습니다. 웹UI 기반 스테이블 디퓨전, 설치 전 꼭 알아야 할 것 스테이블 디퓨전(Stable Diffusion)은 텍스트 입력만으로 고퀄리티 이미지를 생성하는 오픈소스 AI 모델입니다. 여기서 '웹UI'란 Automatic1111이라는 개발자가 일반 사용자도 쉽게 접근할 수 있도록 만든 웹 기반 인터페이스를 의미합니다. 쉽게 말해, 복잡한 코드 없이 브라우저에서 클릭 몇 번으로 이미지를 뽑아낼 수 있도록 만든 도구라고 보시면 됩니다. 설치 전에 반드시 확인해야 할 사항이 있습니다. 먼저 PC 환경이라면 NVIDIA GPU가 장착되어 있는지, 그리고 전용 GPU 메모리가 최소 8GB 이상인지 체크해야 합니다. 작업 관리자에서 성능 탭을 열어보면 전용 GPU 메모리 용량을 확인할 수 있는데, 제 경험상 8GB 미만이면 고해상도 이미지 생성 시 메모리 부족 오류가 자주 발생했습니다. 만약 GPU 성능이 부족하다면 구글 코랩을 활용하는 방법도 있는데, 이 부분은 뒤에서 다시 설명드리겠습니다. 설치 파일은 GitHub의 Automatic1111 레포지토리에서 다운로드할 수 있습니다( 출처: GitHub ). 다운로드 페이지에서 스크롤을 내리면 'Installation on Windows 10/11 with NVIDIA GPU' 항목 아래에 최신 릴리스 패키지 링크가 보입니다. 저는 처음에 버전을 잘못 받아서 실행이 안 됐던 ...

피카 AI 영상 제작 후기 (무료 크레딧, 이미지 변환, 효과음)

피카 AI는 초기 가입 시 250 크레딧을 무료로 제공하고, 소진 후에도 매일 30 크레딧씩 자동 충전됩니다. 제가 처음 피카를 접했을 때 가장 놀랐던 건 클릭 몇 번으로 5초짜리 영상이 뚝딱 만들어진다는 점이었습니다. 다른 영상 생성 AI들과 비교해도 피카는 사운드 효과를 기본으로 지원하고, 이미지 한 장을 넣으면 자연스럽게 움직이는 영상으로 바꿔주는 기능이 특히 인상적이었습니다. 무료 크레딧 시스템과 실제 사용 경험 피카 AI는 처음 가입하면 250 크레딧을 받게 되는데, 이게 생각보다 금방 소진됩니다. 영상 한 개 생성에 보통 10 크레딧 정도가 들어가니까요. 제가 처음 써봤을 때 테스트 삼아 여러 영상을 만들다 보니 하루 만에 거의 다 써버렸습니다. 하지만 여기서 중요한 건, 초기 크레딧이 소진되더라도 매일 30 크레딧씩 자동으로 충전된다는 점입니다. 이 30 크레딧이면 하루에 대략 3개 정도의 영상을 만들 수 있는 셈이죠. 크레딧 시스템(Credit System)이란 AI 서비스에서 사용량을 제한하기 위해 도입한 가상 화폐 개념입니다. 쉽게 말해 게임의 '에너지'처럼 작동하는데, 영상을 만들 때마다 일정량이 차감되고 시간이 지나면 다시 채워지는 구조입니다. 무료 플랜에서는 워터마크(Watermark), 즉 피카 로고가 영상 하단에 표시되는데, 이걸 없애려면 유료 플랜으로 전환해야 합니다. 솔직히 개인적으로 쇼츠나 숏폼 콘텐츠 제작 연습용으로는 무료 크레딧만으로도 충분하다고 봅니다. 이미지를 영상으로 변환하는 과정 피카의 가장 강력한 기능 중 하나가 바로 '이미지 투 비디오(Image to Video)' 기능입니다. 저는 미리캔버스에서 만든 이미지를 가지고 테스트해봤는데, 정말 간단했습니다. 피카 사이트에 로그인한 뒤 'Image to Video' 버튼을 클릭하고 이미지를 업로드하면 끝입니다. 프롬프트는 영어로 입력해야 하는데, 파파고나 구글 번역기로 한글을 영어로 바꿔서 붙여 넣으면 됩니다. 제...

HeyGen 아바타 영상 제작 (사진 더빙, 음성 클론, 실전 활용법)

AI 아바타 영상 제작 도구 HeyGen을 처음 써봤을 때, 솔직히 기대 반 의구심 반이었습니다. 사진 한 장만 넣으면 입 모양까지 맞춰서 말을 한다는 게 과연 자연스러울까 싶었거든요. 그런데 막상 결과물을 확인하고 나니, 예상보다 훨씬 완성도가 높아서 놀랐습니다. 특히 스크립트를 넣고 몇 분만 기다리면 바로 영상이 나온다는 점에서, 영상 콘텐츠 제작에 부담을 느끼던 분들에게 꽤 실용적인 도구라는 생각이 들더군요. 이번 글에서는 제가 직접 HeyGen을 사용하면서 경험한 과정과 함께, 실제로 어떻게 활용할 수 있는지 구체적으로 정리해 보겠습니다. 사진 한 장으로 만드는 AI 아바타, 포토 아바타 기능 HeyGen의 가장 기본적인 기능은 포토 아바타(Photo Avatar)입니다. 이건 말 그대로 이미지 파일 하나만 업로드하면, 그 이미지 속 인물이 직접 말하는 것처럼 영상을 만들어주는 기능이죠. 제가 테스트해본 방법은 이렇습니다. 먼저 HeyGen 사이트에 접속해서 구글 계정으로 로그인했고, 메인 메뉴에서 'Try Avatar I' 또는 하단의 아바타 영상 만들기 메뉴를 클릭했습니다. 그러면 이미지를 업로드할 수 있는 화면이 나오는데, 여기에 제가 미리 준비한 AI 생성 이미지를 넣어봤습니다. 이미지를 업로드하면 화면 하단에서 가로형 또는 세로형 비율을 선택할 수 있고, 오른쪽 스크립트 입력란에 아바타가 읽을 텍스트를 적어 넣으면 됩니다. 여기서 한 가지 주의할 점은, 무료 플랜에서는 최대 210자, 15초 분량까지만 제작이 가능하다는 겁니다. 그리고 완성된 영상 하단에는 HeyGen 워터마크가 자동으로 삽입되고요. 제 경험상 이 정도 제약은 처음 기능을 테스트해보기엔 충분했지만, 본격적으로 콘텐츠를 만들려면 유료 플랜으로 전환하는 게 현실적이더군요. 스크립트를 입력한 뒤 왼쪽 하단의 'Select Voice' 버튼을 눌러 한국어 음성을 선택하고, 해상도를 720p로 설정한 상태에서 'Generate Video...

일레븐랩스 TTS 후기 (음성합성, 가격, 활용법)

TTS로 만든 목소리가 진짜 사람 목소리와 구분이 안 된다면 믿으시겠습니까? 저는 처음 일레븐랩스를 써보고 나서 제 귀를 의심했습니다. 유튜브 영상 내레이션용으로 급하게 목소리가 필요했던 어느 날, 반신반의하며 텍스트를 입력했는데 5초 만에 나온 결과물이 성우 녹음본처럼 자연스러웠거든요. 그 순간 '이거 진짜 쓸 만한데?'라는 생각과 동시에 '성우 비용 500만 원이 아껴지겠구나'는 계산이 동시에 스쳐 지나갔습니다. 일레븐랩스 TTS, 왜 이렇게 자연스러울까 일레븐랩스(ElevenLabs)는 2022년에 설립된 AI 음성 합성 플랫폼입니다. 여기서 TTS란 'Text-to-Speech'의 약자로, 텍스트를 음성으로 변환해주는 기술을 뜻합니다. 쉽게 말해 글을 입력하면 사람처럼 읽어주는 AI 목소리가 나오는 거죠. 저는 이 서비스를 유료로 구독하면서 본격적으로 써봤는데, 영어는 물론이고 한국어, 일본어, 스페인어 등 총 32개 언어를 지원한다는 점부터 놀라웠습니다. 솔직히 이전에 써본 다른 TTS 서비스들은 억양이 어색하거나 기계음이 심해서 실용성이 떨어졌습니다. 그런데 일레븐랩스는 감정 표현, 억양, 속도까지 세밀하게 조정할 수 있어서 긴 스크립트를 줘도 자연스럽게 읽어냅니다. 실제로 A4 용지 3장 분량의 대본을 입력했을 때도 중간에 끊김 없이 매끄럽게 이어지는 걸 보고 감탄했습니다. 이 정도면 오디오북 제작이나 기업 교육 영상에도 충분히 쓸 수 있겠다는 확신이 들었습니다. 일레븐랩스의 주요 기능은 다음과 같습니다: 텍스트투스피치(TTS): 텍스트를 입력하면 AI가 음성으로 읽어줍니다. 보이스체인저(Voice Changer): 내 목소리를 다른 목소리로 바꿔줍니다. 사운드이펙트(Sound Effects): 폭발음, 배경음 등 영상에 필요한 효과음을 생성합니다. 오디오 클린업: 녹음한 음성에서 잡음을 제거하고 깔끔하게 다듬어줍니다. 제가 가장 자주 쓰는 건 역시 TTS 기능입니다. 출근길에...

AI 영상 제작 툴 비교 (그로우, 소라, 런웨이)

저도 처음엔 AI 영상 툴이 그게 그거겠거니 생각했습니다. 실제로 써보기 전까지는 말이죠. 최근 몇 달간 그로우, 소라, 런웨이 ML 같은 주요 AI 영상 생성 툴들을 직접 결제해서 써봤는데, 솔직히 기대와 현실이 많이 달랐습니다. 일반적으로 AI 영상 툴은 비싸고 느리다고 알려져 있지만, 제 경험상 이건 툴마다 천차만별이었습니다. 특히 숏폼 콘텐츠나 유튜브 영상을 만들려는 분들이라면, 어떤 툴을 선택하느냐에 따라 작업 효율이 완전히 달라집니다. 5초짜리 영상 하나 만드는데 10분씩 기다리는 것과 30초 영상을 1분 만에 뽑는 것은 창작자 입장에서 완전히 다른 세상이거든요. AI 영상 툴의 가장 큰 걸림돌, 러닝타임과 속도 제가 처음 AI 영상 툴을 접했을 때 가장 답답했던 부분은 생성 시간과 영상 길이의 제약이었습니다. 런웨이 ML(Runway ML) 같은 경우, 텍스트-투-비디오(Text-to-Video) 방식으로 프롬프트만 입력하면 영상이 나오는데, 기본 출력 길이가 고작 4~5초 수준입니다. 여기서 텍스트-투-비디오란 텍스트 설명을 입력하면 AI가 자동으로 영상을 생성해주는 기술을 뜻합니다. 릴스나 숏츠 하나 만들려면 최소 15초는 필요한데, 이걸 위해 영상을 여러 번 생성하고 이어 붙여야 했습니다. 무료 버전은 말할 것도 없고, 유료 결제를 해도 생성 크레딧이 금방 소진돼서 실질적으로 만들 수 있는 영상 개수가 제한적이었습니다. 구독료는 월 12달러부터 시작하는데, 막상 써보니 크레딧 관리가 생각보다 까다로웠습니다. 소라(Sora)는 오픈AI에서 공개한 차세대 영상 생성 모델로, 벤치마크 테스트에서 놀라운 성능을 보여줬습니다. 하지만 문제는 접근성입니다. 제가 테스트해본 시점 기준으로, 소라는 아직 일반 사용자에게 완전히 개방되지 않았고 대기자 명단에 올라가야 했습니다. 공개된 데모 영상들은 정말 인상적이었지만, 실제로 제 손으로 써보기까지는 상당한 시간이 걸렸습니다( 출처: OpenAI ). 제미나이 베오(Gemini Veo) ...

무료 AI 이미지 생성 (이미지FX, 드리미나, 이데오그램)

여러분은 AI 이미지 툴을 찾을 때 무엇을 가장 먼저 따지시나요? 저는 솔직히 '무료'라는 단어에 혹해서 이것저것 다 깔아봤다가 실망한 적이 한두 번이 아닙니다. 그런데 최근 몇 달간 직접 테스트해보니, 정말 쓸 만한 무료 툴들이 꽤 있더라고요. 특히 한국 스타일 구현이나 텍스트 삽입처럼 특화된 기능을 가진 툴들은 유료 못지않은 퀄리티를 보여줬습니다. 오늘은 제가 실제로 써본 무료 AI 이미지 생성 툴 다섯 가지를 소개해드리겠습니다. 이미지FX와 드리미나, 한국 스타일은 어떻게 구현할까요? 구글에서 출시한 이미지FX(ImageFX)는 한국인이라면 꼭 써봐야 할 툴입니다. 제가 가장 놀랐던 건 한복, 한옥, 한국인 얼굴 같은 아시아 특유의 디테일을 정말 자연스럽게 표현해준다는 점이었습니다. 한국어 프롬프트를 입력해도 인식률이 높아서, "비 오는 날 한복 입은 여자"라고 쓰면 한복 색상부터 디자인, 배경의 한옥까지 디테일하게 만들어줍니다. 다만 구글 특유의 엄격한 콘텐츠 정책 때문에 아동이나 특정 키워드는 생성 제한이 있습니다. 프롬프트 표현도 조금 제한적일 수 있는데, 이건 안전성을 우선시하는 구글의 방침이라고 보시면 됩니다. 그래도 한국 문화 콘텐츠를 만들어야 한다면 이미지FX만한 게 없다는 게 제 솔직한 생각입니다. 캡컷에서 나온 드리미나(Dreamina)는 정말 파격적입니다. 무제한 무료라는 점에서 일단 시작부터 남다릅니다. 저도 처음엔 "무제한인데 퀄리티가 괜찮을까?" 의심했는데, 막상 써보니 미드저니급 퀄리티를 보여주더라고요. 다만 현재는 베타 버전이라 한국어 프롬프트 인식이 완벽하지 않습니다. 영어로 입력하면 훨씬 안정적인 결과물이 나옵니다. 드리미나의 가장 큰 장점은 동영상 생성 기능도 베타로 제공된다는 점입니다. 제가 진돗개 영상을 만들어봤는데, 클링(Kling)만큼 완벽하진 않지만 무료치고는 정말 쓸 만했습니다. 춤추는 여성 영상도 만들어봤는데 동작이 자연스럽고 어색함이 거의 없...

PPT 초안 빠르게 만들기 (감마 AI, 크레딧 활용, 파일 내보내기)

PPT 만들 때마다 개요 짜고 슬라이드 하나하나 추가하느라 시간 버리고 계신가요? 저도 예전엔 그랬습니다. 주제 정하고 목차 설정하고 내용 채우는 과정이 반복되다 보니, 정작 중요한 발표 준비는 뒷전이었죠. 그러다 감마(Gamma)라는 AI 기반 프레젠테이션 도구를 써본 뒤로는 초안 작업 시간이 절반 이하로 줄었습니다. 완성도 높은 결과물을 기대하기보다는, 빠르게 틀을 잡고 싶을 때 유용하게 활용할 수 있는 서비스입니다. 감마 AI로 슬라이드 구조 자동 생성하기 감마는 생성형 AI를 활용해 프레젠테이션 초안을 만들어주는 플랫폼입니다. 구글 계정으로 로그인하면 바로 사용할 수 있고, 가입 즉시 400 크레딧을 무료로 제공합니다. 하나의 프레젠테이션을 생성할 때마다 40 크레딧이 차감되므로, 처음엔 총 10개 정도의 슬라이드 세트를 만들어볼 수 있습니다. 크레딧(Credit)이란 감마 내에서 AI 생성 기능을 사용할 때 소비되는 일종의 이용권을 뜻합니다. 쉽게 말해 게임 아이템처럼 사용 횟수가 정해진 포인트라고 보시면 됩니다. 저는 처음에 "회사 소개"라는 주제만 입력했는데, 감마가 알아서 '비전과 미션', '서비스 제공', '우리의 가치', '연락처' 같은 구조로 슬라이드를 구성해줬습니다. 슬라이드 개수도 5장, 8장 등으로 선택할 수 있고, 텍스트 양도 '간략', '보통', '상세' 중에서 조절 가능합니다. 발표용이라면 슬라이드에는 핵심만 넣고 구두 설명을 더하는 게 좋으니, '간략' 옵션을 추천합니다. 고급 모드를 클릭하면 대상 청중(비즈니스, 학생 등)과 톤(전문가, 친근함 등)까지 설정할 수 있어서, 상황에 맞춰 슬라이드 분위기를 조정할 수 있습니다. 크레딧 활용과 테마 선택 노하우 개요 생성 후에는 여러 테마 중 하나를 선택하게 됩니다. 테마(Theme)란 슬라이드의 배경색, 폰트, 레이아웃 등을 미리 디...

노션 초보 탈출기 (레고 조립, 보안 이슈, AI 에이전트)

솔직히 저는 노션을 처음 설치하고 나서 바로 삭제했던 적이 있습니다. 화면에 뜬 복잡한 템플릿들을 보는 순간 "이건 내가 쓸 도구가 아니구나" 싶었거든요. 그런데 다시 노션을 켜게 된 건 AI 에이전트 기능 때문이었습니다. MCP(Model Context Protocol) 연동이 가능하다는 얘기를 듣고, 이게 정말 생산성 도구로서 제대로 작동할 수 있을지 궁금해졌습니다. 노션, 레고처럼 조립한다는 게 무슨 뜻일까요? 노션을 설명할 때 자주 등장하는 비유가 바로 '레고 조립'입니다. 제가 직접 써보니 이 표현이 정말 딱 맞더군요. 일반적인 문서 도구는 위에서 아래로만 내용을 쌓아가는 방식인데, 노션은 요소(블록)를 가로로도 배치할 수 있습니다. 예를 들어 회의록을 작성한다고 해봅시다. 제목을 쓰고, 본문을 쓰고, 이미지를 넣고, 유튜브 영상을 삽입하는 과정이 모두 블록 단위로 이루어집니다. 여기서 블록(Block)이란 노션에서 문서를 구성하는 최소 단위를 뜻합니다. 쉽게 말해 텍스트 한 줄, 이미지 하나, 표 하나가 각각 독립된 블록인 셈입니다. 이 블록들을 마우스로 끌어다가 옆으로 배치하면 화면이 훨씬 정돈되어 보입니다. 처음에는 세로로만 쌓여 있던 요소들이 가로로 나란히 놓이니까 공간 활용도 효율적이고, 시각적으로도 깔끔합니다. 제가 실제로 업무 보고서를 작성할 때 이 방식을 써봤는데, 같은 내용인데도 훨씬 전문적으로 보이더군요. 노션의 또 다른 장점은 페이지 계층 구조입니다. 관련된 문서들을 하나의 상위 페이지 아래에 모아둘 수 있어서, 나중에 찾기가 정말 편합니다. 회의록, 보고서, 프로젝트 문서 등을 각각의 폴더처럼 관리할 수 있다는 점에서 기존 메모 앱과는 확실히 다릅니다( 출처: Notion 공식 가이드 ). 보안 이슈, 정말 괜찮을까요? 노션을 본격적으로 쓰기 전에 제가 가장 걸렸던 부분이 바로 보안 문제였습니다. 회원가입 방식부터 신경 쓰이더군요. 직접 이메일과 비밀번호로 가입하는 방식보다...

런웨이 AI 영상 제작 (퀄리티, 비용, 실전 활용)

AI 영상 툴 중에서 가장 비싸다는 런웨이를 쓰면 정말 그만한 값어치를 할까요? 저는 2년 전부터 런웨이를 써왔는데, 솔직히 말하면 가격 대비 만족도는 매번 갈립니다. 폭포 사진 하나 주고 물고기가 헤엄치는 영상 만들어 달라고 했더니 물결은 자연스러웠지만 물고기 움직임은 부자연스러웠거든요. 그런데도 런웨이가 여전히 상업용 영상 AI 1세대 모델로 자리 잡은 데는 분명한 이유가 있습니다. 이번 글에서는 런웨이의 실제 제작 퀄리티부터 크레딧 소모 속도, 그리고 초보자가 놓치기 쉬운 핵심 기능까지 제 경험을 바탕으로 정리해드리겠습니다. 런웨이 영상 퀄리티, 실전에서 얼마나 쓸 만한가 런웨이는 2023년 초 Gen-1 모델을 시작으로 현재 Gen-3까지 업데이트되면서 다양한 기능이 추가됐습니다. 제가 직접 테스트해본 결과, 런웨이의 가장 큰 강점은 현실감 있는 영상 구현 능력입니다. 하이루 같은 경쟁 모델이 애니메이션이나 숏폼 스타일에 강하다면, 런웨이는 실사 영상에서 압도적인 성능을 보여줍니다. 예를 들어 식당에서 찍은 사진을 주고 팬에 있는 불고기를 볶는 영상으로 만들어 달라고 했을 때, 첫 부분은 다소 어색했지만 중간부터는 자연스러운 볶음 동작이 생성됐습니다. 여기서 중요한 건 첫 프레임(First Frame)의 퀄리티입니다. 런웨이는 입력 이미지의 해상도가 높을수록 최종 영상의 선명도도 비례해서 올라갑니다. 저화질 이미지를 넣으면 아무리 프롬프트를 잘 써도 결과물이 흐릿하게 나옵니다. 하지만 제가 강아지 영상을 만들었을 때는 퀄리티가 기대 이하였습니다. 털의 질감이나 움직임이 부자연스러웠고, 특히 복잡한 프롬프트를 입력했을 때 클리핑 현상(화면이 끊기거나 겹치는 현상)이 발생했습니다. 런웨이 공식 프롬프트 가이드에서는 "단순하게 입력하고 긍정적인 표현을 쓰라"고 권장하는데, 실제로 "배경이 지저분하지 않게"보다 "정돈된 배경"처럼 긍정문으로 작성하면 결과물이 더 안정적이었습니다( 출처: Runw...

DALL-E 3 프롬프트 작성법 (이미지 분석, 스타일 추출, 명령어 생성)

ChatGPT로 이미지를 만들어보려고 했는데 막상 어떤 말을 써야 할지 막막하셨던 적 있으신가요? 저도 처음에는 "멋진 풍경 그려줘" 정도로만 요청했다가 전혀 원하지 않는 결과물을 받고 당황했던 기억이 있습니다. DALL-E 3가 ChatGPT에 통합되면서 한글로 명령어를 입력할 수 있게 되었지만, 원하는 이미지를 정확히 만들려면 프롬프트(prompt)라고 부르는 명령어 작성 기술이 필요합니다. 프롬프트란 AI에게 원하는 결과물을 설명하는 지시문을 뜻하는데, 쉽게 말해 AI와 대화하는 방식이라고 보시면 됩니다. 오늘은 제가 직접 써보면서 찾은 가장 쉬운 방법을 공유해드리겠습니다. 마음에 드는 이미지를 ChatGPT에 올려보셨나요? 프롬프트를 처음부터 글로 작성하는 건 생각보다 어렵습니다. 특히 미술이나 디자인 쪽 공부를 하지 않으신 분들은 "어떤 스타일로", "어떤 구도로", "어떤 색감으로" 같은 표현 자체가 낯설 수밖에 없죠. 그래서 저는 완전히 다른 방식으로 접근했습니다. 일단 마음에 드는 이미지를 하나 골라서 ChatGPT 기본 창에 업로드합니다. 화면 왼쪽 상단에 있는 이미지 아이콘을 클릭하거나, 파일을 드래그해서 채팅창에 끌어다 놓으면 됩니다. 이미지가 올라간 게 보이면 업로드 성공입니다. 그 다음 이렇게 입력하시면 됩니다. "비슷한 이미지를 만들고 싶어. DALL-E 3에게 이미지를 만들어 달라고 명령할 거야. 알맞은 명령어를 적어주고 내가 이해할 수 있게 한글로 번역도 적어줘." 저는 MidJourney에서 만든 석양 도시 풍경 이미지를 올려봤습니다. ChatGPT는 이 이미지를 분석해서 "create an image similar to a cityscape during sunset with reflections on water"라는 영문 명령어를 만들어줬고, "해질 녘 물에 반사되는 도시 풍경과 비슷한 모습을 만들어...

Suno AI 음악 제작 (메타태그, 키워드 활용, 저작권)

솔직히 저는 Suno AI를 처음 썼을 때 결과물이 기대 이하여서 실망했습니다. 무료 크레딧 5개를 금방 소진했고, 만들어진 노래는 제가 원하던 느낌과 달랐죠. "이게 뭐야?" 싶었는데, 알고 보니 제가 메타태그와 키워드를 제대로 활용하지 못했던 게 문제였습니다. 이후 디테일한 설정 방법을 익히고 나니 완전히 다른 퀄리티의 음악을 만들 수 있었습니다. 오늘은 제가 직접 경험하며 깨달은 Suno AI 고급 활용법과 함께, 많은 분들이 궁금해하시는 저작권 문제까지 정리해 드리겠습니다. 메타태그로 곡 구조 완벽하게 설계하기 Suno AI를 처음 쓰시는 분들 대부분은 'Simple 모드'에서 가사와 스타일만 대충 입력하고 생성 버튼을 누릅니다. 저도 처음엔 그랬습니다. 하지만 이 방식은 AI가 무작위로 곡을 구성하기 때문에 원하는 결과를 얻기 어렵습니다. 진짜 고퀄리티 음악을 만들고 싶다면 반드시 'Custom 모드'로 전환해서 메타태그(meta tag)를 활용해야 합니다. 메타태그란 가사 입력란에 대괄호([])를 사용해 곡의 구조나 보컬 스타일을 구체적으로 지정하는 마크업 언어입니다. 쉽게 말해 "이 부분은 후렴구야", "여기는 남성 보컬로 불러줘" 같은 명령을 AI에게 직접 내리는 것이죠. 제가 실제로 써본 주요 메타태그는 다음과 같습니다. [Verse]: 노래의 일반적인 구간, 도입부나 스토리를 전달하는 부분에 사용합니다. [Chorus]: 가장 기억에 남는 후렴구로, 곡에서 강조하고 싶은 핵심 멜로디 구간입니다. [Bridge]: 벌스와 코러스 사이를 연결하거나 분위기를 전환하는 중간 다리 역할을 합니다. [Outro]: 곡의 마무리 부분으로, [End] 태그와 함께 쓰면 AI가 곡을 자연스럽게 종료합니다. [Male Vocal] / [Female Vocal]: 보컬 성별을 지정할 때 사용합니다. 제가 실제로 ChatGPT에게 가사를 부탁할 때도 ...

미드저니 활용법 (이미지 프롬프트, 스타일 레퍼런스, 실전 꿀팁)

솔직히 저는 미드저니를 처음 접했을 때 기능이 너무 많아서 어디서부터 시작해야 할지 막막했습니다. 프롬프트를 길게 써야 할지, 짧게 써야 할지도 몰랐고, 원하는 스타일이 나오지 않아 몇 시간씩 헤맨 적도 많았습니다. 하지만 1년 넘게 실무에서 직접 사용하면서 깨달은 건, 미드저니는 '복잡하게' 쓸수록 오히려 원하는 결과가 안 나온다는 점이었습니다. . 이미지 프롬프트, 제대로 활용하는 법 미드저니에서 프롬프트 창 왼쪽 아이콘을 클릭하면 이미지 프롬프트, 스타일 레퍼런스, 옴니 레퍼런스 등의 옵션이 나타납니다. 저는 초반에 이 기능들의 차이를 제대로 이해하지 못해서 스타일 레퍼런스를 써야 할 곳에 이미지 프롬프트를 넣는 실수를 자주 했습니다. 이미지 프롬프트(Image Prompt)란 특정 이미지의 구도, 색감, 객체 배치 등 세부 요소를 AI가 분석해서 새로운 이미지 생성에 반영하는 기능입니다. 예를 들어 제 얼굴 사진을 이미지 프롬프트로 넣고 "eating hamburger"라고 입력하면, AI가 사진 속 한국인 얼굴, 셔츠, 넥타이, 표정 같은 디테일을 뽑아서 햄버거를 들고 있는 장면으로 재구성해줍니다. 이미지 프롬프트를 쓸 때 주의할 점은, 너무 복잡한 이미지를 넣으면 AI가 어떤 요소를 우선해야 할지 헷갈려 한다는 겁니다. 저는 보통 배경이 단순하고 주요 객체가 명확한 이미지를 선택합니다. 또한 프롬프트 텍스트는 간결하게 써야 합니다. "a person wearing gray hoodie, holding book, Ghibli style, detailed background..." 이런 식으로 길게 쓰면 특정 내용이 누락되거나 엉뚱한 결과가 나올 확률이 높습니다. 제 경험상 핵심 키워드 3~5개 정도로 짧게 쓰고, 이후 수정 기능(Vary, Upscale 등)으로 디테일을 보완하는 게 훨씬 효율적이었습니다. 이미지 프롬프트: 구도, 색감, 객체 배치 등 세부 요소 반영 스타일 레퍼런스: ...

Kling AI 실전 리뷰 (신기능, 크레딧, 서버 안정성)

저는 지난 3개월 동안 Kling AI를 실제로 사용하면서. 처음에는 어떤 비디오 생성기를 선택해야 할지 확신이 없었는데, 솔직히 말해서 Kling AI를 사용하면서 워터마크 없이 영상을 만들 수 있다는 점이 가장 만족스러웠습니다. 하지만 최근 업데이트된 기능들을 테스트하면서 몇 가지 현실적인 문제도 발견했습니다. 이 글에서는 Kling AI의 신기능과 크레딧 시스템, 그리고 서버 안정성 문제를 실제 사용 경험을 바탕으로 분석해보겠습니다. 모션 컨트롤과 립싱크, 실제로 써보니 Kling AI의 모션 컨트롤(Motion Control)이란 참고 영상의 움직임을 다른 이미지에 복사해서 새로운 영상을 만들어내는 기능입니다. 제가 물을 마시는 영상과 한국인 여성의 이미지를 입력하면, 여성이 저와 똑같이 물을 마시는 영상이 생성되는 방식입니다. 심지어 현장의 사운드까지 살려주는 점이 인상적이었습니다. 다만 여기서 중요한 점은 업로드한 영상의 첫 화면과 이미지 구도를 똑같이 맞춰줘야 자연스럽고 고퀄리티의 결과물이 나온다는 것입니다. 저는 실제로 구도를 무시하고 서 있는 강아지 이미지를 넣어봤는데, 맥락에서 완전히 벗어난 어색한 영상이 만들어졌습니다. 이런 문제를 해결하기 위해 Kling AI는 새롭게 업데이트된 클링 5.1 모델을 제공합니다. 5.1 모델은 이미지 편집에 특화된 모델로, 텍스트로 변경하고 싶은 부분을 요청하면 인물의 특징은 유지하면서 다른 상황을 연출할 수 있습니다. 제가 제 사진에 "피카츄와 만나서 셀카 찍는 장면을 만들어 줘"라고 입력했더니, 실제로 피카츄와 셀카를 찍은 이미지가 완성됐습니다. 립싱크(Lip-sync) 기능은 목소리와 캐릭터 입 모양을 정교하게 맞춰주는 기술인데, 기존에는 따로 유료 AI 플랫폼에서 몇 만 원씩 내고 결제해야 했습니다. 이제는 Kling AI 내에서 모두 해결 가능합니다. 디지털 캐릭터 메뉴에서 이미지 캐릭터 2.0을 선택하고, 캐릭터 이미지와 목소리 파일을 업로드하면 끝입니다. 저는 광...

ChatGPT 프로 플랜 실사용기 (5o 무제한, 프로모드, GPTs)

솔직히 저는 ChatGPT 프로 플랜을 처음 봤을 때 가격표를 보고 깜짝 놀랐습니다. 월 200달러, 우리 돈으로 환산하면 약 30만 원에 가까운 금액이었거든요. 그런데도 궁금했습니다. 과연 이 가격에 맞는 가치가 있을까? 약 6주 동안 직접 써보면서 느낀 점들을 오늘 정리해봤습니다. 프로 플랜의 핵심 기능인 GPT-5o 무제한 사용과 프로모드, 그리고 GPTs까지, 하나씩 뜯어보겠습니다. GPT-5o 무제한 사용, 정말 필요한가 프로 플랜의 가장 큰 장점이라고 생각하는 분들이 많은데, 저는 실제로 써보니 이 부분이 가장 만족스러웠습니다. GPT-5o는 OpenAI가 개발한 최신 언어모델로, 기존 GPT-4 시리즈보다 추론 능력과 응답 속도가 크게 개선된 모델을 뜻합니다. 쉽게 말해 더 똑똑하고 빠르게 답변을 준다는 의미죠. 플러스 플랜(월 20달러)에서도 GPT-5o를 쓸 수는 있습니다. 하지만 하루에 일정 횟수 이상 사용하면 제한이 걸립니다. 제가 플러스를 쓸 때 가장 답답했던 순간이 바로 이거였어요. 열심히 대화하다가 갑자기 "제한에 도달했습니다"라는 메시지를 보면, 그 순간 흐름이 완전히 끊겨버리거든요. 프로 플랜으로 넘어오고 나서는 이런 제약이 사라졌습니다. 하루 종일 물어봐도 블락이 안 걸려요. 저는 글을 쓰는 일을 하다 보니 하루에도 수십 번씩 ChatGPT와 대화를 주고받는데, 프로모드보다 GPT-5o가 제 업무 스타일에 훨씬 잘 맞았습니다. GPT-4는 제가 원하는 답을 정확히 이해하지 못하는 경우가 많았고, 프로모드는 생각을 너무 오래 해서 답답할 때가 있었거든요. GPT-5o는 그 중간 지점에서 적절한 속도와 품질을 보여줬습니다. 다만, 일반적으로 GPT-5o를 하루에 몇 번 안 쓰는 분이라면 굳이 프로 플랜을 선택할 이유는 없다고 봅니다. 제한에 자주 걸리지 않는다면 플러스 플랜으로도 충분하니까요. 프로모드와 딥 리서치, 장단점 분명하다 프로모드는 ChatGPT 프로 플랜에서만 쓸 수 있는 별도의...