AI総合研究所

SHARE

X(twiiter)にポストFacebookに投稿はてなブックマークに登録URLをコピー

DeepSeek V3とは?基本性能や使い方、料金体系を徹底解説!

この記事のポイント

  • DeepSeek V3は、Mixture-of-Expertsアーキテクチャを採用した最先端の大規模言語モデルです。
  • 革新的な技術を取り入れ、高い精度と処理速度を実現しています。
  • リーズナブルな料金プランが提供され、コストパフォーマンスに優れています。
  • WebチャットやAPI、ローカル環境、そしてVSCode拡張機能など、複数の方法で手軽に利用可能です。
  • 活用事例としては、開発作業の効率化や自動化などで広く使われている様子が伺えます。

監修者プロフィール

坂本 将磨

Microsoft AIパートナー、LinkX Japan代表。東京工業大学大学院で技術経営修士取得、研究領域:自然言語処理、金融工学。NHK放送技術研究所でAI、ブロックチェーン研究に従事。学会発表、国際ジャーナル投稿、経営情報学会全国研究発表大会にて優秀賞受賞。シンガポールでのIT、Web3事業の創業と経営を経て、LinkX Japan株式会社を創業。

最先端の人工知能技術を身近にするDeep Seek V3は、多様な専門家モデルを組み合わせたMixture-of-Experts (MoE) アーキテクチャと、先進的な技術を搭載することで、他の言語モデルをしのぐ性能を発揮しています。
また、驚くほどリーズナブルな料金プランもDeep Seek V3の大きな魅力です。

この記事では、その具体的な特徴や技術的な革新、そして実際の使い方から活用事例に至るまでを詳細にご紹介していきます。
AI技術への入門から専門的な活用まで、われわれの日常に欠かせない存在へと変わりつつあるAIの最新動向を、ぜひこの記事で体感してください。

DeepSeek-V3とは

DeepSeek-V3は、Mixture-of-Experts (MoE) アーキテクチャを採用した最新の大規模言語モデル(LLM)です。


DeepSeek-V3は、671Bという膨大なパラメータを持ちつつ、効率的なトレーニングと推論を実現しています。

従来モデルのDeepSeek-V2で培った技術を基盤としながら、新たにAuxiliary-Loss-Free Load BalancingMulti-Token Prediction (MTP) といった革新的な技術を搭載。これにより、推論精度やスピードが大幅に向上しました。

内製開発研修


DeepSeek-V3のパフォーマンス

DeepSeekトップ画面
DeepSeekトップ画面

DeepSeek-V3は、以下の技術的な革新を通じて、他のオープンソースモデルを超える性能を達成しています。

ベンチマークパフォーマンス
ベンチマークパフォーマンス参照:DeepSeek_V3

数学と推論

  • MATH-500: 90.2%の精度を達成。
  • AIME 2024: Pass@1で39.2%のスコア。

コード生成

  • HumanEval: Pass@1で82.6%を記録。
  • LiveCodeBench: Pass@1-CoTで40.5%を達成。

多言語対応

  • 英語と中国語での複数の評価で、他モデルを上回る性能を発揮。

【関連記事】
AIエージェントの関連記事はこちらです⬇️

AIエージェント(AI agent)とは?その仕組みや作り方、活用事例を解説 | AI総合研究所

AIエージェントとは何か、その基本概念から生成AIとの違い、作り方までをわかりやすく解説。実際の活用事例、最新トレンドまで解説。企業導入に役立つ具体的な情報を網羅的に紹介します。

https://www.ai-souken.com/article/ai-agent-overview

DeepSeek-V3の技術的特徴

その性能を支える技術は以下の通りです。

1. Mixture-of-Experts (MoE)アーキテクチャ

DeepSeekMoEは、複数の専門家ノードを効率的に活用し、Auxiliary-Loss-Free Load Balancing技術により計算負荷を均等化します。これにより、性能を維持しつつ計算効率を最大化。

  • 柔軟性の向上: 専門家の負荷を動的に調整し、タスクごとに最適な専門家を選択。
  • 負荷バランス: 従来のAuxiliary-Loss手法に依存せず(補助損失なしで実現)、性能を低下させることなく計算リソースを活用。

2. Multi-Token Prediction (MTP)

一度に複数のトークンを予測するMTP技術を採用。これにより、学習信号の強化やデータ効率の向上が可能となり、推論速度も最大1.8倍に向上します。

  • 効率的な学習: より多くの学習信号を生成し、データ効率を向上。
  • 高速推論: 推論時に複数トークンを予測し、処理速度を大幅に向上。

3. Multi-head Latent Attention (MLA)

注意機構の計算効率を高めるMLAは、低ランク圧縮技術を活用し、必要なメモリ量を削減。従来のTransformerベースのアテンションに匹敵する性能を発揮します。

  • メモリ効率: Key-Valueキャッシュを大幅に削減。
  • 精度向上: 高精度なアテンションを維持しつつ、計算負荷を低減。

4. FP8トレーニング技術

低精度FP8を用いたトレーニングにより、メモリ使用量を削減しつつ計算速度を向上。これにより、大規模なモデルでも安定したトレーニングが可能となっています。

  • 混合精度フレームワーク: 必要な部分のみ高精度(FP32/BF16)を使用。
  • トレーニング安定性: FP8での安定したトレーニングを実現。

AI研修


DeepSeek-V3の料金

DeepSeek-V3は、他のAPIサービスと比較して料金が安いことが大きな特徴です。

他APIとのコストパフォーマンス
他APIとのコストパフォーマンス

価格の単位

  • 価格は1Mトークン(100万トークン)ごとに設定されています。
  • トークンはモデルが認識する最小単位で、単語、数字、句読点などが含まれます。
  • モデルの入出力トークン数の合計に基づいて課金されます。

価格詳細(USD / CNY)

モデル コンテキスト長 最大出力トークン 入力価格(キャッシュヒット) 入力価格(キャッシュミス) 出力価格
deepseek-chat 64K 8K $0.07 / 1Mトークン (通常価格) $0.014 / 1Mトークン (割引価格) $0.27 / 1Mトークン (通常価格)
¥0.14 / 1Mトークン (割引価格) ¥1.10 / 1Mトークン (通常価格)

最新の情報はこちらからご確認ください。


DeepSeek-V3の使い方

DeepSeek-V3の利用は非常に簡単で、大きく2つの選択肢があります。
それはWebチャットでの利用か、APIでの利用かです。

2つの方法についてご紹介します。

2種類のサービス選択
2種類のサービス選択

Webチャットでの利用方法

こちらは非常に簡単です。

  1. まずこちらからアクセスします。

  2. ログインを行います。Googleアカウントでのログインも可能です。
    ログイン画面
    ログイン画面

  3. するとチャットUIに移行しますのであとは通常通り利用が可能です。

チャット画面
チャット画面

DeepThinkボタンがあるのが特徴的ですね!

APIでの利用方法

DeepSeekはOpenAI互換のAPIを提供しており、既存のOpenAI SDKを使用して簡単に組み込むことが可能です。

  1. APIキーの取得: DeepSeekの公式ウェブサイトでアカウントを作成し、APIキーを取得します。

  2. 環境変数の設定: 取得したAPIキーを環境変数に設定します。

    export DEEPSEEK_API_KEY=your_api_key_here
    


  1. リクエストの送信: 以下のようなコマンドでAPIにリクエストを送信できます。

    curl https://api.deepseek.com/v1/chat/completions \
    -H "Content-Type: application/json" \
    -H "Authorization: Bearer $DEEPSEEK_API_KEY" \
    -d '{
      "model": "deepseek-chat",
      "messages": [{"role": "user", "content": "こんにちは、元気ですか?"}]
    }'
    

    このコマンドは、ユーザーからのメッセージ「こんにちは、元気ですか?」をDeepSeekに送信し、応答を取得します。

VSCode拡張機能「Cline」での利用方法

Visual Studio Code(VSCode)の拡張機能「Cline」を使用して、DeepSeekを統合することができます。

【関連記事】
【AI開発】VSCode拡張機能「Cline」とは?使い方やCusorとの違いを徹底解説

  1. Clineのインストール: VSCodeの拡張機能マーケットプレイスから「Cline」をインストールします。

  2. DeepSeekの設定: Clineの設定で、プロバイダーとしてDeepSeekを選択し、APIキーを入力します。
    Clineでの設定
    Clineでの設定

  3. プロンプトの入力: VSCode上でClineを起動し、実行したいプロンプトを入力します。

    例:

    カレントディレクトリにあるymlファイルから、positionに関する項目を削除してください。
    

    このプロンプトにより、指定されたディレクトリ内のymlファイルから特定の項目を一括で削除する操作を自動化できます。

ローカル環境での実行手順

DeepSeekのモデルをローカル環境で実行することも可能です。特に、Ollamaなどのツールを使用してモデルをダウンロードし、コマンドラインから利用できます。

手順詳細

  1. Ollamaのインストール: 公式サイト(https://ollama.com)からOllamaをダウンロードし、インストールします。

  2. モデルのダウンロード: ターミナルで以下のコマンドを実行し、DeepSeekのモデルをダウンロードします。

    ollama create deepseek-33b -f ./modelfile
    

    このコマンドは、Hugging Faceのリポジトリから必要なファイルをダウンロードし、モデルを作成します。

  3. モデルの実行: 以下のコマンドでモデルを起動し、対話セッションを開始できます。

    ollama run deepseek-33b
    

    これにより、コマンドライン上でDeepSeekモデルと直接対話することが可能になります。


これらの方法を活用することで、コマンドラインからDeepSeekの強力なAI機能を効果的に利用できます。

AI駆動開発


DeepSeek-V3の活用事例

DeepSeek-V3はすでに日本でも利用されはじめており、以下のような具体的な活用例があります。

  • Deep Seek-V3 Diagram


  • Clineでの活用


  • AWSのElastic Beanstalk 一式を作成


  • 数学・コーディングでの活用


まとめ

DeepSeek-V3は、コストパフォーマンスと性能を両立したAIモデルとして、研究者や個人開発者にとって強力なツールとなっています。活用することで開発の幅がさらに広がりそうですね。

AI総合研究所では企業のAI研修、開発、導入までを一気通貫で支援しています。AI導入に興味のある企業の担当者の方はお気軽にご相談ください。

メルマガ登録

AI活用のノウハウ集「AI総合研究所」サービスご紹介資料

「AI総合研究所 サービス紹介資料」は、AI導入のノウハウがないというお客様にも使いやすい最先端のAI導入ノウハウを知れる資料です。

資料ダウンロード
監修者

坂本 将磨

Microsoft AIパートナー、LinkX Japan代表。東京工業大学大学院で技術経営修士取得、研究領域:自然言語処理、金融工学。NHK放送技術研究所でAI、ブロックチェーン研究に従事。学会発表、国際ジャーナル投稿、経営情報学会全国研究発表大会にて優秀賞受賞。シンガポールでのIT、Web3事業の創業と経営を経て、LinkX Japan株式会社を創業。

関連記事

AI導入の最初の窓口。

お悩み・課題に合わせて活用方法をご案内いたします。
お気軽にお問合せください。

AI総合研究所 Bottom banner

ご相談
お問い合わせは
こちら!