OpenAIのChatGPTのオープンソース版が公開されました。
生成AIの言語モデルに関して、オープンソースの定義があったような記憶があるのですが、そこでは確か、「学習コード、ウェイト、データセットがオープンであること」と定義されていなような。その定義から見たら、gpt-ossはオープンソースではなく、オープンウェイトモデルであると言うのが良いと思います。
いずれにしても、オープンウェイトであれば、ファインチューニングできるので、生成AIを活用する側にとっては朗報でしょう。
試しに、gpt-ossの20B(小さい方、大きい方は120B)をダウンロードして、Ollamaで動かしてみました。Ollamaは最新版を使う必要があります。テストしたPCはCore i5 13400 + GeForce RTX 3060という構成です。
上のスクリーンショットは「Ryzen 7を使ったAI学習用PCの構成を提案してください」というプロンプトを投げたときの様子。
こちらのスクリーンショットはVRAMの使用状況をモニターしている様子です。VRAM 12GBのRTX 3060でもなんとか動きます。

動きますが、遅い。
生成速度は7.4トークン/秒でした。
3060クラスのGPUには荷が重いです。速いGPUを持っている方には良いモデルだと思います。
生成される文章は高品質です。
生成された文章は次の通りです。
Ryzen 7搭載でAI学習に最適なPC構成(3段階)
ポイント
- CPUはAI学習のデータ前処理やパイプラインで並列処理が必要なときに重視。
- GPUが最も計算を担うので、CPUとGPUのバランスを取ることが重要。
- RAMはデータセットのサイズに合わせて多めに取るのが安全。
- ストレージは高速NVMeでロード/保存を高速化。
1. エントリーレベル(約¥250,000〜¥300,000)
項目 | 推奨品 | コメント |
---|---|---|
CPU | Ryzen 7 5800X 3.8 GHz | 8コア16スレッド、AI学習の前処理に十分。 |
GPU | NVIDIA RTX 3060 Ti (8 GB) | 8 GBのVRAMで中規模モデルの学習が可能。 |
メモリ | 32 GB DDR4‑3200 | 16 GB×2でデータロードに余裕。 |
ストレージ | 1 TB NVMe SSD (Samsung 980 PRO) | OS + ライブラリ高速起動。 |
マザーボード | ASUS TUF B550‑PLUS | PCIe 4.0、拡張性◎。 |
電源 | 650 W 80+ Gold | GPU + CPU + 余裕。 |
冷却 | Noctua NH‑U12S | 静音と高性能。 |
ケース | Fractal Design Meshify C | 風通し◎。 |
OS | Ubuntu 22.04 LTS | ディープラーニングフレームワークが安定。 |
推奨理由
- 予算を抑えつつ、CPUがGPUをボトルネックにしない構成。
- 3060 TiはCUDA 8 GBで、簡単なCNNや小規模Transformerを学習可能。
2. ミドルレンジ(約¥400,000〜¥500,000)
項目 | 推奨品 | コメント |
---|---|---|
CPU | Ryzen 7 7700X 4.5 GHz | DDR5対応でメモリ帯域が向上。 |
GPU | NVIDIA RTX 3080 Ti (12 GB) | 大規模モデルや画像処理に最適。 |
メモリ | 64 GB DDR5‑5200 | 32 GB×2、バッチサイズを増やせる。 |
ストレージ | 2 TB NVMe SSD (Samsung 980 PRO) | データセットの高速読み込み。 |
マザーボード | ASUS ROG Strix X670E‑Gaming WiFi | PCIe 5.0、DDR5サポート。 |
電源 | 750 W 80+ Gold | 高い消費電力に対応。 |
冷却 | Corsair iCUE H100i RGB Pro XT (240 mm) | 温度低減と静音。 |
ケース | NZXT H710i | エアフローと拡張性◎。 |
OS | Ubuntu 24.04 LTS | 最新CUDA Toolkit対応。 |
推奨理由
- RTX 3080 Tiは12 GB VRAMで、画像生成や大規模LLMの実験に十分。
- DDR5とPCIe 5.0で将来性あり。
- 64 GB RAMはバッチサイズやデータローダーの効率化に貢献。
3. ハイエンド(約¥700,000〜¥900,000)
項目 | 推奨品 | コメント |
---|---|---|
CPU | Ryzen 7 7700X 4.5 GHz | 8コアでGPU負荷を分散。 |
GPU | NVIDIA RTX 4090 (24 GB) | 24 GB VRAMで大型モデルが学習可能。 |
メモリ | 128 GB DDR5‑6000 | 大規模データセット、マルチタスクに最適。 |
ストレージ | 2 TB NVMe SSD + 4 TB HDD (Seagate IronWolf) | 高速SSD + 大容量ストレージ。 |
マザーボード | ASUS ROG Crosshair X670E‑E (WiFi 6E) | PCIe 5.0×16 x4、オーバークロック可。 |
電源 | 850 W 80+ Platinum | 高効率、RTX 4090の電力を確保。 |
冷却 | NZXT Kraken Z73 (360 mm) | 高い熱設計とカスタムRGB。 |
ケース | Lian Li PC‑011 Dynamic XL | 大容量とエアフロー◎。 |
OS | Ubuntu 24.04 LTS | CUDA 12+、ROCmも選択可。 |
推奨理由
- RTX 4090は24 GB VRAMでLLM・大型Transformerの学習がスムーズ。
- 128 GB RAMで複数のGPUノードを同時に動かすデータパイプラインも安定。
- 850 W Platinum PSUで電力安定と長寿命を確保。
補足情報
項目 | 備考 |
---|---|
GPUの選択 | NVIDIAが深層学習で最も広くサポート。AMDのGPU(Radeon、MI300)はROCm対応だが、エコシステムが小さい。 |
RAM容量 | 32 GBは最低ライン。バッチサイズを大きくする場合は64 GB以上推奨。 |
ストレージ | NVMe SSDはデータ読み込み時間を大幅に短縮。データセットが大きい場合はRAID0や外部SSDも検討。 |
電源 | GPUがメイン消費電力。80+ Gold以上で余裕を持たせる。 |
OS | Ubuntu 22.04/24.04はCUDA ToolkitとPyTorch/TensorFlowの最新版に最適。 |
冷却 | Ryzen 7 5800Xは高温になりやすいので、空冷より水冷が推奨。 |
マザーボード | PCIe 4.0/5.0はGPUの帯域幅に影響しないが、将来性を考慮。 |
拡張 | 追加GPUを検討する場合は、SATA 3 GPUスロットがないことに注意。PCIe 4.0/5.0をサポートするマザーボードを選択。 |
まとめ
- CPU:Ryzen 7シリーズは8コアでAI学習の前処理に十分。
- GPU:CUDAベースのAIフレームワークを最大限に活かすため、RTX 3060 Ti〜RTX 4090の選択がベスト。
- メモリ:32 GB以上。大型データセット・大規模モデルは64 GB+が安全。
- ストレージ:高速NVMe SSDでデータIOを最適化。
- 電源・冷却:GPUの消費電力に合わせて余裕を持たせ、冷却は空冷より水冷が安心。
この構成をベースに、予算や用途(小規模実験 vs 大規模モデルのトレーニング)に合わせて調整してください。Happy coding! 🚀
「gpt-ossが公開されました」への1件のフィードバック