生成AIを動かす環境構築
試験的に色々と試しています。 現在までに、言語モデルを動かす環境をDockerで作る仕組みの文書化(ZIKUUのGitHubリポジトリに登録済み)、小さな言語モデルをファインチューニングする環境の構築、画像生成AIである … 続きを読む
試験的に色々と試しています。 現在までに、言語モデルを動かす環境をDockerで作る仕組みの文書化(ZIKUUのGitHubリポジトリに登録済み)、小さな言語モデルをファインチューニングする環境の構築、画像生成AIである … 続きを読む
大したカスタマイズではありませんが、先日紹介したLLMを使ったAIチャットをカスタマイズしてZIKUU版にしました。 出力がストリーミングされない、文脈を忘れるといった問題がありますが、ファインチューニングをすれば結構使 … 続きを読む
以前の投稿でRinna社の36億パラメーターのLLMのファインチューニングを手元のPCで行いました。ネット検索をしてみるとわかりますが、老若男女大勢の人がLLMを動かして研究したり遊んだりしています。 大手AI企業のLL … 続きを読む
ChatGPTなどと比べると何桁も規模の小さなRinna社の言語モデル(36億パラメーターのもの)は日本語の前提として作られたものです。それに2000件程度のデータセットを使ってチューニングしてみました。 GPUはRTX … 続きを読む
昨日から動かしている大規模言語モデルの追加学習。基本的な学習が済んだモデル(Pretrained Model)のファインチューニングと呼ばれる作業です。 たったの2000件のデータセット、サイズにして17.1MBのテキス … 続きを読む
大規模言語モデル(LLM)の学習中。 VRAM12GBのGPUでやれる程度のそんなに大きくないやつ。 学習するデータはこんな格好をしたものがズラーと並んだテキストです。 { “output”: & … 続きを読む