'langchain 실습'에 해당되는 글 1건

  1. 2025.06.28 Colab에서 LangChain + Gemini 실행하기 4

🎈 Colab vs Conda, 두 가지 방식으로 Gemini에게 물어보기


🧁 1. [Colab] 써보면 디저트 같은 즐거움

“클릭 두 번이면 AI랑 대화할 수 있다니!”

💻 실행 단계

  1. https://colab.research.google.com 접속
  2. 새 노트북 열기
  3. 다음 코드 셀 실행:
!pip install -q langchain-google-genai google-generativeai

API 키 설정:

import os
os.environ["GOOGLE_API_KEY"] = "여기에_당신의_API_키를_입력하세요"

사용 가능한 모델 확인

import google.generativeai as genai

from _settings.config import GEMINI_KEY

# API 키 설정
genai.configure(api_key=GEMINI_KEY)

# 모델 목록 확인 (이걸로 어떤 모델이 가능한지 확인 가능)
for model in genai.list_models():
    print(model.name)

위 코드 실행 시 다음과 같은 결과를 얻었습니다.

이는 사용자 마다 요금제에 따라 다를 수 있습니다.

models/embedding-gecko-001
models/gemini-1.0-pro-vision-latest
models/gemini-pro-vision
models/gemini-1.5-pro-latest
models/gemini-1.5-pro-002
models/gemini-1.5-pro
models/gemini-1.5-flash-latest
models/gemini-1.5-flash
models/gemini-1.5-flash-002
models/gemini-1.5-flash-8b
models/gemini-1.5-flash-8b-001
models/gemini-1.5-flash-8b-latest
models/gemini-2.5-pro-preview-03-25
models/gemini-2.5-flash-preview-04-17
models/gemini-2.5-flash-preview-05-20
models/gemini-2.5-flash
models/gemini-2.5-flash-preview-04-17-thinking
models/gemini-2.5-flash-lite-preview-06-17
models/gemini-2.5-pro-preview-05-06
models/gemini-2.5-pro-preview-06-05
models/gemini-2.5-pro
models/gemini-2.0-flash-exp
models/gemini-2.0-flash
models/gemini-2.0-flash-001
models/gemini-2.0-flash-exp-image-generation
models/gemini-2.0-flash-lite-001
models/gemini-2.0-flash-lite
models/gemini-2.0-flash-preview-image-generation
models/gemini-2.0-flash-lite-preview-02-05
models/gemini-2.0-flash-lite-preview
models/gemini-2.0-pro-exp
models/gemini-2.0-pro-exp-02-05
models/gemini-exp-1206
models/gemini-2.0-flash-thinking-exp-01-21
models/gemini-2.0-flash-thinking-exp
models/gemini-2.0-flash-thinking-exp-1219
models/gemini-2.5-flash-preview-tts
models/gemini-2.5-pro-preview-tts
models/learnlm-2.0-flash-experimental
models/gemma-3-1b-it
models/gemma-3-4b-it
models/gemma-3-12b-it
models/gemma-3-27b-it
models/gemma-3n-e4b-it
models/gemma-3n-e2b-it
models/embedding-001
models/text-embedding-004
models/gemini-embedding-exp-03-07
models/gemini-embedding-exp
models/aqa
models/imagen-3.0-generate-002
models/imagen-4.0-generate-preview-06-06
models/imagen-4.0-ultra-generate-preview-06-06
models/veo-2.0-generate-001
models/gemini-2.5-flash-preview-native-audio-dialog
models/gemini-2.5-flash-exp-native-audio-thinking-dialog
models/gemini-2.0-flash-live-001
models/gemini-live-2.5-flash-preview

질문하기:

from langchain_google_genai import ChatGoogleGenerativeAI
from langchain_core.messages import HumanMessage

chat = ChatGoogleGenerativeAI(model="models/gemini-2.5-pro", google_api_key=os.environ["GOOGLE_API_KEY"])
response = chat.invoke([HumanMessage(content="대한민국의 수도는 어디인가요?")])
print(response.content)
 

저는 실행해보니 다음과 같은 에러가 발생하네요.

ResourceExhausted: 429 You exceeded your current quota, please check your plan and billing details.

즉, 무료 요금제에서 할당된 API 호출량(쿼터)를 다 써버려서 발생한 에러입니다.


왜 이런 일이 생길까요?

  • Gemini API 무료 티어는 하루, 분 단위로 호출량과 토큰 사용량 제한이 있습니다.
  • 이 제한을 초과하면 429 에러가 나오며, 일정 시간 후 다시 시도해야 합니다.
  • 구글 클라우드 콘솔에서 할당량(Quota)을 확인하거나, 요금제 업그레이드가 필요합니다.

해결 방법

1️⃣ 쿼터 초기화까지 기다리기

  • 일반적으로 하루 기준이므로, 하루가 지나면 다시 사용 가능해집니다.

2️⃣ 쿼터 확인 및 업그레이드

3️⃣ 호출량 줄이기

  • 테스트용 짧은 문장으로 API 호출 횟수 줄이기
  • 불필요한 반복 호출 자제

4️⃣ 경량화된 flash 모델 사용하기

  • gemini-2.5-flash 같은 경량 모델은 쿼터 부담이 적고, 무료 티어 할당량이 더 넉넉할 수 있습니다.
  • 동일한 API 키로도 pro 모델 대신 flash 모델을 사용하면 쿼터 초과 문제를 완화할 수 있습니다.

다음은 flash 모델을 사용한 예입니다.

from langchain_google_genai import ChatGoogleGenerativeAI
from langchain_core.messages import HumanMessage

chat = ChatGoogleGenerativeAI(model="models/gemini-2.5-flash", google_api_key=os.environ["GOOGLE_API_KEY"])
response = chat.invoke([HumanMessage(content="대한민국의 수도는 어디인가요?")])
print(response.content)

 

결과는 다음과 같습니다.

대한민국의 수도는 **서울**입니다.

참고 링크


요약

에러 코드 의미 대처법
429 할당량(쿼터) 초과 기다리거나 업그레이드 필요
 

 


🧱 2. [PC + Conda] 본격 연구소 느낌!

“이건 내 실험실이다!”

🧪 Conda 기반 환경 구축 및 실행


✅ Step 1. Conda 가상환경 만들기

conda create -n gemini_env python=3.10 -y conda activate gemini_env
 

✅ Step 2. 필요한 패키지 설치

pip install langchain-google-genai google-generativeai
 

✅ Step 3. API 키 설정 및 실행 코드 작성

from langchain_google_genai import ChatGoogleGenerativeAI
from langchain_core.messages import HumanMessage

chat = ChatGoogleGenerativeAI(model="models/gemini-2.5-flash", google_api_key=os.environ["GOOGLE_API_KEY"])
response = chat.invoke([HumanMessage(content="대한민국의 수도는 어디인가요?")])
print(response.content)

위 코드를 gemini_test.py로 저장한 후, 터미널에서 실행하면 됩니다:

python gemini_test.py
 

🎭 Colab vs Conda 재미 비교

항목 🍰 Google Colab 🔬 Conda 가상환경 (PC)
설치 없음 (브라우저만 필요) Anaconda 설치 필수
가상환경 자동 관리 수동 생성 (conda create)
시작 속도 매우 빠름 다소 설정 시간 필요
리소스 제한 Google 제한 (시간, 메모리) 있음 내 PC 성능만큼 무제한
사용 장소 인터넷 연결된 어디서나 가능 해당 PC에서만 가능
유지보수 코드 유지 및 파일 관리 어려움 장기 프로젝트에 유리 (버전 고정 등)
감성 한 줄 평 “앗 귀여워! 바로 실행되네?” “으음… 깔끔하게 환경 관리하자”
 

✅ 결론

  • 처음 써보거나 빠르게 테스트하고 싶을 때 👉 Colab
  • 꾸준히 개발하고 버전 관리하며 프로젝트화하고 싶을 때 👉 Conda
Posted by 제이브레인
,