LLM 모델 비교

LLM 모델 세부 정보

각 회사의 LLM 모델에 대한 세부 정보를 확인하세요.

OpenAI 모델

GPT-4.5 Preview

다양한 텍스트 및 이미지 작업에 뛰어난 최신 GPT 모델

  • 파라미터 수: 미공개
  • 컨텍스트 윈도우: 128,000 토큰
  • 지식 기준일: 2023년 10월
  • 특화 분야: 구조화된 출력, 프롬프트 캐싱, 도구 사용

o-series 모델

향상된 추론 능력을 제공하는 모델

  • o3-mini: 입력 200,000 토큰, 출력 100,000 토큰
  • o1: 입력 200,000 토큰, 출력 100,000 토큰
  • 지식 기준일: 2023년 10월
  • 특화 분야: 텍스트 및 이미지 처리, 함수/도구

GPT-4o

텍스트와 이미지를 단일 모델로 통합한 멀티모달 모델

  • 파라미터 수: 미공개
  • 컨텍스트 윈도우: 128,000 토큰
  • 지식 기준일: 2023년 10월
  • 특화 분야: 영어 텍스트 및 코딩, 비영어 언어, 시각 작업
OpenAI 회사 정보 보기 →

Anthropic 모델

Claude 3.7 Sonnet

하이브리드 추론 모델

  • 파라미터 수: 미공개
  • 지식 기준일: 2024년 10월
  • 특화 분야: 즉각적인 응답 또는 단계별 사고 과정 생성

Claude 3.5 Sonnet

Claude 3 Opus보다 2배 빠른 속도

  • 파라미터 수: 미공개
  • 컨텍스트 윈도우: 200,000 토큰
  • 지식 기준일: 2024년 4월
  • 비용: 입력 토큰당 $3/백만, 출력 토큰당 $15/백만

Claude 3 시리즈

Opus, Sonnet, Haiku 모델 제공

  • 컨텍스트 윈도우: 200,000 토큰
  • 지식 기준일: 2023년 8월
  • 특화 분야: 뉘앙스, 유머, 복잡한 지시 이해
Anthropic 회사 정보 보기 →

Google 모델

Gemini 2.0 Flash

다양한 작업을 위한 차세대 기능

  • 입력: 오디오, 이미지, 비디오, 텍스트
  • 출력: 텍스트, 이미지(예정), 오디오(예정)
  • 특화 분야: 속도 및 멀티모달 생성

Gemini 1.5 Pro

복잡한 추론 작업에 최적화

  • 파라미터 수: 200B 이상
  • 컨텍스트 윈도우: 128,000 토큰 (기업 고객은 200만 토큰)
  • 지식 기준일: 2023년 11월
  • 비용: 입력 토큰당 0.7센트/천 토큰, 출력 토큰당 2.1센트/천 토큰

Gemini 1.5 Flash

다양한 작업에서 빠르고 다재다능한 성능

  • 입력: 오디오, 이미지, 비디오, 텍스트
  • 출력: 텍스트
Google 회사 정보 보기 →

xAI 모델

Grok-3

xAI의 가장 발전된 AI 모델

  • 파라미터 수: 2.7조
  • 학습 토큰 수: 12.8조
  • 컨텍스트 윈도우: 128,000 토큰
  • 지식 기준일: 2025년 2월
  • 특별 기능: Think Mode, Big Brain Mode, DeepSearch

Grok-2

채팅, 코딩, 추론에서 최첨단 기능

  • 지식 기준일: 2024년 8월
  • 벤치마크 성능: MMLU 87.5%, HumanEval 88.4%, MATH 76.1%

Grok-1

혼합 전문가(MoE) 대규모 언어 모델

  • 파라미터 수: 314B (추론 시 25%의 가중치만 활성화)
  • 지식 기준일: 2023년 10월
  • 벤치마크 성능: HumanEval 63.2%, MMLU 73%
xAI 회사 정보 보기 →

Deepseek 모델

DeepSeek-V3

강력한 혼합 전문가(MoE) 언어 모델

  • 파라미터 수: 총 671B (토큰당 37B 활성화)
  • 컨텍스트 윈도우: 128K 토큰
  • 학습 데이터: 14.8조 다양하고 고품질 토큰
  • 벤치마크 성능: MMLU 87.1%, HumanEval 65.2%, GSM8K 89.3%

DeepSeek-R1

DeepSeek-V3 기반의 추론 모델

  • 파라미터 수: 총 671B (토큰당 37B 활성화)
  • 지식 기준일: 2023년 10월
  • 특화 분야: 수학, 코드 및 일반 추론 작업

DeepSeek LLM 67B

추론, 코딩, 수학, 중국어 이해에 강점

  • 파라미터 수: 67B
  • 시퀀스 길이: 4,096 토큰
  • 벤치마크 성능: HumanEval 73.8%, GSM8K 84.1%
Deepseek 회사 정보 보기 →