gpt-ossが公開されました

OpenAIのChatGPTのオープンソース版が公開されました。

生成AIの言語モデルに関して、オープンソースの定義があったような記憶があるのですが、そこでは確か、「学習コード、ウェイト、データセットがオープンであること」と定義されていなような。その定義から見たら、gpt-ossはオープンソースではなく、オープンウェイトモデルであると言うのが良いと思います。

いずれにしても、オープンウェイトであれば、ファインチューニングできるので、生成AIを活用する側にとっては朗報でしょう。

試しに、gpt-ossの20B(小さい方、大きい方は120B)をダウンロードして、Ollamaで動かしてみました。Ollamaは最新版を使う必要があります。テストしたPCはCore i5 13400 + GeForce RTX 3060という構成です。

上のスクリーンショットは「Ryzen 7を使ったAI学習用PCの構成を提案してください」というプロンプトを投げたときの様子。

こちらのスクリーンショットはVRAMの使用状況をモニターしている様子です。VRAM 12GBのRTX 3060でもなんとか動きます。

動きますが、遅い。

生成速度は7.4トークン/秒でした。

3060クラスのGPUには荷が重いです。速いGPUを持っている方には良いモデルだと思います。

生成される文章は高品質です。

生成された文章は次の通りです。


Ryzen 7搭載でAI学習に最適なPC構成(3段階)

ポイント

  • CPUはAI学習のデータ前処理やパイプラインで並列処理が必要なときに重視。
  • GPUが最も計算を担うので、CPUとGPUのバランスを取ることが重要。
  • RAMはデータセットのサイズに合わせて多めに取るのが安全。
  • ストレージは高速NVMeでロード/保存を高速化。

1. エントリーレベル(約¥250,000〜¥300,000)

項目 推奨品 コメント
CPU Ryzen 7 5800X 3.8 GHz 8コア16スレッド、AI学習の前処理に十分。
GPU NVIDIA RTX 3060 Ti (8 GB) 8 GBのVRAMで中規模モデルの学習が可能。
メモリ 32 GB DDR4‑3200 16 GB×2でデータロードに余裕。
ストレージ 1 TB NVMe SSD (Samsung 980 PRO) OS + ライブラリ高速起動。
マザーボード ASUS TUF B550‑PLUS PCIe 4.0、拡張性◎。
電源 650 W 80+ Gold GPU + CPU + 余裕。
冷却 Noctua NH‑U12S 静音と高性能。
ケース Fractal Design Meshify C 風通し◎。
OS Ubuntu 22.04 LTS ディープラーニングフレームワークが安定。

推奨理由

  • 予算を抑えつつ、CPUがGPUをボトルネックにしない構成。
  • 3060 TiはCUDA 8 GBで、簡単なCNNや小規模Transformerを学習可能。

2. ミドルレンジ(約¥400,000〜¥500,000)

項目 推奨品 コメント
CPU Ryzen 7 7700X 4.5 GHz DDR5対応でメモリ帯域が向上。
GPU NVIDIA RTX 3080 Ti (12 GB) 大規模モデルや画像処理に最適。
メモリ 64 GB DDR5‑5200 32 GB×2、バッチサイズを増やせる。
ストレージ 2 TB NVMe SSD (Samsung 980 PRO) データセットの高速読み込み。
マザーボード ASUS ROG Strix X670E‑Gaming WiFi PCIe 5.0、DDR5サポート。
電源 750 W 80+ Gold 高い消費電力に対応。
冷却 Corsair iCUE H100i RGB Pro XT (240 mm) 温度低減と静音。
ケース NZXT H710i エアフローと拡張性◎。
OS Ubuntu 24.04 LTS 最新CUDA Toolkit対応。

推奨理由

  • RTX 3080 Tiは12 GB VRAMで、画像生成や大規模LLMの実験に十分。
  • DDR5とPCIe 5.0で将来性あり。
  • 64 GB RAMはバッチサイズやデータローダーの効率化に貢献。

3. ハイエンド(約¥700,000〜¥900,000)

項目 推奨品 コメント
CPU Ryzen 7 7700X 4.5 GHz 8コアでGPU負荷を分散。
GPU NVIDIA RTX 4090 (24 GB) 24 GB VRAMで大型モデルが学習可能。
メモリ 128 GB DDR5‑6000 大規模データセット、マルチタスクに最適。
ストレージ 2 TB NVMe SSD + 4 TB HDD (Seagate IronWolf) 高速SSD + 大容量ストレージ。
マザーボード ASUS ROG Crosshair X670E‑E (WiFi 6E) PCIe 5.0×16 x4、オーバークロック可。
電源 850 W 80+ Platinum 高効率、RTX 4090の電力を確保。
冷却 NZXT Kraken Z73 (360 mm) 高い熱設計とカスタムRGB。
ケース Lian Li PC‑011 Dynamic XL 大容量とエアフロー◎。
OS Ubuntu 24.04 LTS CUDA 12+、ROCmも選択可。

推奨理由

  • RTX 4090は24 GB VRAMでLLM・大型Transformerの学習がスムーズ。
  • 128 GB RAMで複数のGPUノードを同時に動かすデータパイプラインも安定。
  • 850 W Platinum PSUで電力安定と長寿命を確保。

補足情報

項目 備考
GPUの選択 NVIDIAが深層学習で最も広くサポート。AMDのGPU(Radeon、MI300)はROCm対応だが、エコシステムが小さい。
RAM容量 32 GBは最低ライン。バッチサイズを大きくする場合は64 GB以上推奨。
ストレージ NVMe SSDはデータ読み込み時間を大幅に短縮。データセットが大きい場合はRAID0や外部SSDも検討。
電源 GPUがメイン消費電力。80+ Gold以上で余裕を持たせる。
OS Ubuntu 22.04/24.04はCUDA ToolkitとPyTorch/TensorFlowの最新版に最適。
冷却 Ryzen 7 5800Xは高温になりやすいので、空冷より水冷が推奨。
マザーボード PCIe 4.0/5.0はGPUの帯域幅に影響しないが、将来性を考慮。
拡張 追加GPUを検討する場合は、SATA 3 GPUスロットがないことに注意。PCIe 4.0/5.0をサポートするマザーボードを選択。

まとめ

  • CPU:Ryzen 7シリーズは8コアでAI学習の前処理に十分。
  • GPU:CUDAベースのAIフレームワークを最大限に活かすため、RTX 3060 Ti〜RTX 4090の選択がベスト。
  • メモリ:32 GB以上。大型データセット・大規模モデルは64 GB+が安全。
  • ストレージ:高速NVMe SSDでデータIOを最適化。
  • 電源・冷却:GPUの消費電力に合わせて余裕を持たせ、冷却は空冷より水冷が安心。

この構成をベースに、予算や用途(小規模実験 vs 大規模モデルのトレーニング)に合わせて調整してください。Happy coding! 🚀


「gpt-ossが公開されました」への1件のフィードバック

コメントする