2025年1月AI市場に激震が走りました。「DeepSeekショック」と呼ばれるこの出来事は、中国発のLLMモデル「DeepSeek R1」が突如として台頭し、OpenAIやNVIDIAに大きな影響を与えたことを指します。特にNVIDIAの株価は17%もの暴落を引き起こし、世界の株式市場に影響を与えました。今回のインパクトは実際のところどのような影響があるのでしょうか。
かなり反響のあった前回記事「DeepSeek R1とは:突然第一線に飛び出したオープンソースLLMモデル」でも分析していましたが、各社のコメントなどおよそ出てきましたので、そのコメントから今後の影響をまとめてみました。
その後、DeepSeekショックのポイントはいくつかにしぼられています。
・DeepSeekはどのようにして、OpenAIのChatGPTの性能にキャッチアップしたのか?
→OpenAIのChatGPTを学習に利用した可能性が高まっています。
・DeepSeekはNVIDIAのGPUを利用したのか?
→最先端ではないものの、型落ちのNVIDIAのGPUを利用したという可能性が高まっています。
・DeepSeekのオープンソースモデルがどのような影響をもたらすのか?
→各社または個人でダウンロードして個別に利用する場合は中国にデータを送らずに利用できる
では、関係各社のコメントをみていきましょう。
競合各社のコメント
各社CEOのDeepSeekに関するコメントを以下に要約してまとめます。
OpenAI – サム・アルトマンCEO
- DeepSeekのR1モデルは、特に価格面で印象的なモデルだと評価
- 新たな競合の出現を歓迎し、より良いモデルの開発を約束
- 社内では、このリリースが大きな環境変化の始まりだと従業員に伝達
Anthropic – ダリオ・アモデイCEO
- DeepSeekのチームを「敵対者」とは見ていないと表明
- 彼らは優秀で好奇心旺盛な研究者だが、権威主義的な政府の影響下にあると指摘
- AIに関する輸出規制の重要性を強調
NVIDIA – ジェンスン・フアンCEO
- DeepSeekの成果を「AIの優れた進展であり、テスト時スケーリングの完璧な例」と評価
- 推論(inferencing)には依然として多くのNVIDIA GPUが必要であると主張
- 高性能ネットワーキングの重要性も指摘
Microsoft – サティア・ナデラCEO
- AIの効率性向上は、むしろ総需要の増加につながるとの見解を示す
- 「ジェボンズの逆説」を引用し、技術効率の向上が需要増加を促すと説明
共通認識
- DeepSeekはAIの効率性を向上させている点で評価
- 計算資源の需要は減少せず、むしろ他の用途で必要性が高まる可能性
- AI市場の競争激化により、技術革新が加速する可能性を指摘
DeepSeek R1のオープンソース化による今後の影響について、考察されている事案をまとめていきます。
技術面での影響
- AIモデルのコモディティ化が進み、性能の均一化が起こる可能性が高い
- 誰でも自由に利用・改変できることで、類似の性能を持つAIが市場に増加
- 開発者や技術者が直接モデルを検証・改善できることで、技術革新が加速
- ローカル実行が可能になり、プライバシーを保持したまま高性能AIを利用可能
オープンソースのため、およそ100万円のシステムをローカルで組めば利用できると言われています。それを全世界が利用し始めるとビッグテックはスタートラインに戻され、一方で個人や中小企業も似たような位置に立てることを意味しています。
Xでもローカルで組んで動かしてみたという声がたくさん出ています。
- ローカル実行とは何ですか?
-
ローカル実行とは、AIモデルやアプリケーションをインターネットに接続せず、ユーザーの個々のデバイス(PCやサーバー)上で直接実行することを指します。
データが外部サーバーに送信されないため、個人情報や機密情報が漏洩するリスクが低減します。すべてのデータ処理がローカルで行われるため、ユーザーは自分のデータを完全に管理できます。
- ローカル実行する場合のシステム要件は?
-
DeepSeek R1をローカルで動かすためのシステム要件は、使用するモデルのサイズや量子化の設定によって異なりますが、一般的な要件を以下にまとめます。
基本的なシステム要件
1. ハードウェア要件
- CPU:高性能なCPUが推奨されます。特に、AMD EPYCやIntel Xeonなどのサーバー向けプロセッサが適しています。
- RAM:最低でも16GB以上が推奨されますが、より大きなモデルを扱う場合は32GB以上が望ましいです。特に、DeepSeek-R1のフルモデルを使用する場合は、768GBのRAMが必要になることもあります。
- GPU:NVIDIAのGPUが推奨されます。具体的には、以下のようなVRAM要件があります。
- DeepSeek-R1-Distill-Qwen-1.5B: NVIDIA RTX 3050 8GB以上
- DeepSeek-R1-Distill-Qwen-7B: NVIDIA RTX 3060 12GB以上
- DeepSeek-R1-Distill-Qwen-14B: NVIDIA RTX 4080 16GB以上
- DeepSeek-R1-Distill-Qwen-32B: NVIDIA RTX 4090 24GB以上
- DeepSeek-R1-Distill-Llama-70B: 複数のGPUセットアップが必要(例: NVIDIA A100 80GB x2)。
- ストレージ:モデルのサイズに応じて、10GBから75GB程度の空きストレージが必要です。特に大きなモデルでは、より多くのストレージが求められます。
2. ソフトウェア要件
- オペレーティングシステム:Windows 10/11、Linux、またはmacOSがサポートされています。
- CUDA:NVIDIAのGPUを使用する場合、CUDAがインストールされている必要があります。CUDAのバージョンは11.xまたは12.xが推奨されています。
- llama.cpp:DeepSeek-R1を実行するためには、llama.cppというライブラリが必要です。これをインストールし、適切に設定する必要があります。
DeepSeek R1をローカルで運用するためには、高性能なCPUとGPU、十分なRAMとストレージが必要です。特に、モデルのサイズによって要求されるリソースが大きく異なるため、使用するモデルに応じたハードウェアの選定が重要です。また、ソフトウェア環境の整備も必要不可欠です。
ビジネスへの影響
- API利用料金が95-97%削減され、中小企業でも高性能AIの導入が容易に
- 競争の焦点がモデルの性能から「使いやすさ」や「ユーザーエクスペリエンス」へシフト
- スタートアップや小規模企業にとって、AIサービス開発の参入障壁が大幅に低下
- 既存のAI企業は新たなビジネスモデルの構築を迫られる可能性
- DeepSeek R1を個別に運用する場合はどのような料金になりますか?
-
DeepSeek R1を個別に運用する場合の月額料金は、使用するトークンの量に応じて異なります。以下に、具体的な料金体系をまとめます。
料金体系
- 入力トークン: 1百万トークンあたり$0.55
- 出力トークン: 1百万トークンあたり$2.19
この料金設定は、OpenAIのモデルと比較して非常に低コストであることが特徴です。例えば、OpenAIのo1モデルでは、入力トークンが1百万トークンあたり$15.00、出力トークンが$60.00となっており、DeepSeek R1はこれに対して約27倍のコスト削減を実現しています。
月額料金の例
例えば、月に10百万トークンの入力と出力を使用する場合の計算は以下の通りです。
- 入力コスト: 10百万トークン × $0.55 = $5.50
- 出力コスト: 10百万トークン × $2.19 = $21.90
したがって、合計で月額約$27.40(約3,000円)となります。このように、DeepSeek R1は非常にコスト効率が良く、特に中小企業や個人開発者にとって魅力的な選択肢となっています。
グローバルな影響
- リソースの少ない地域でも高度なAIが利用可能になり、グローバルな普及が加速
- 国際的な規制やガバナンスの必要性が高まる
- クロスボーダーでの技術協力が増加
- 特に新興市場での企業がAIソリューションを導入しやすくなる
AIの民主化と言われていましたが、まだまだお金のかかるのが現状でした。今回のDeepSeekオープンソースの登場は世界各地でのAI利用を推し進めることが容易に想像できます。
セキュリティとプライバシーの課題
- データ収集や利用に関する懸念が増加
- プライバシーとセキュリティのリスク管理が重要課題に
- 企業の機密情報保護に関する新たな対策が必要
- 国家レベルでの情報セキュリティ対策の重要性が増す
データや著作権についての論争が巻き起こるのは必至です。今まで知られていなかったこともいつの間にか表に出てくることは容易に想像できます。
産業構造への影響
- AIの民主化により、従来のテクノロジー企業の優位性が変化
- オープンソースコミュニティを中心とした新たなエコシステムの形成
- 特許や知的財産権保護の重要性が増加
- ハードウェア依存度の低下による産業構造の変革
オープンソースモデルによる今後の可能性
効率的な開発モデルの確立
- 従来の巨額投資に依存しない開発手法を実現(開発コスト600万ドル以下)
- 少ないGPUリソース(約2,000個)での高性能モデル開発が可能に
- 量子化技術による効率的なメモリ使用と実行コストの削減
つまりコスト削減によって確立できる最適化を目指す可能性が高まったということ?
- 量子化技術とは何ですか?
-
量子化技術の採用によって、より少ないVRAMで実行可能になるということは、AIモデルのデータサイズを小さくし、メモリ使用量を削減することを意味します。具体的には、以下のような点が挙げられます。
量子化技術の概要
- データの精度を落とす: 量子化は、モデル内部で使用される数値表現のビット幅を減少させる技術です。例えば、32ビット浮動小数点(FP32)で表現されていたデータを、8ビット整数(INT8)や4ビットに変換することで、データサイズを大幅に削減します。
- メモリ使用量の削減: 量子化により、同じモデルをより少ないメモリで実行できるようになります。例えば、元々720GBのモデルが動的量子化を用いることで131GBにまで圧縮されることがあります。これにより、VRAMの使用量が大幅に減少し、より低スペックのハードウェアでもモデルを実行できるようになります。
技術の民主化
- オープンソースによる自由な改良・派生モデルの開発が可能
- 世界中の開発者がバグ修正や性能向上に貢献できる環境の実現
- 特定企業による技術独占の防止
「世界中の開発者がバグ修正や性能向上に貢献できる環境」というのはビットコインのような分散化技術を彷彿とさせますね。
市場構造の変化
- AIモデルのコモディティ化による価格競争の激化
- NVIDIAなど既存のAI関連企業の株価への影響
- 新興企業の参入障壁低下による市場競争の活性化
やはりハード面で高性能なGPUはそれなりに必要でしょうけど、技術的な必要レベルを充足したともいえそうです。
コスト面での革新
- API利用料金が従来の95-97%削減
- 運用コストの大幅な低減による中小企業のAI導入促進
- 計算リソースの効率的な利用によるコスト最適化
これまでAPI利用料金はある意味ベンチャーでは恐怖だったでしょうけど、およそ計算できる範囲に収まる可能性が出てきましたね。
地域間格差の縮小
- リソースの少ない地域でも高度なAI開発が可能に
- 新興国市場でのAIソリューション導入の加速
- グローバルなAIイノベーションの促進
ある意味、日本はチャンスではないでしょうか?
国際競争力への影響
- 米中のAI開発競争の新局面
- オープンソースを通じた技術普及による国際協力の促進
- 各国のAI政策・規制への影響
もちろん新たな国際間紛争の可能性もあります。
イノベーションの加速
- コミュニティ主導の継続的な改善と発展
- 特定分野に特化した派生モデルの登場
- AIの応用範囲の拡大と新たなユースケースの創出
いい意味でも悪い意味でも利用されることは想定していかないといけません。
いかがだったでしょうか?
LLMの進化は今後マルチモーダル、つまり文字だけでなく、映像や音声に波及していくと想定されています。それが今後の社会にどのように影響を与えていくかはよく見守っていくことが重要と考えています。
今後も当サイトでは最新の情報を追跡していきます。
関連記事
参考になる記事
免責事項
本記事の内容は、一般的な情報提供を目的として作成されたものであり、正確性や最新性を保証するものではありません。また、この記事に記載された情報に基づいて行動した結果について、一切の責任を負いかねます。
特に、法律的、技術的、商業的な意思決定を行う際には、専門家への相談を推奨いたします。また、紹介している製品やサービスについての詳細な条件やライセンス内容は、公式の提供元にてご確認ください。
本記事で言及されている製品名や商標は、各社の所有物です。当サイトは、それらの商標権や著作権を侵害する意図は一切ございません。