投稿

9月, 2023の投稿を表示しています

QEUR23_LLMDSS10: 閑話休題~databricks(15k)のデータセットの改造と分割

イメージ
~ データ?small is best? ~ QEU:FOUNDER : “最近、ブログのリリース速度が落ちてきているなあ・・・。しようがない、LLM(大規模言語モデル)の宿命だが・・・。” (QEUプロジェクトの3件とは?) (1)世界の中心にある日本語: 常体文と敬体文の情報を学習に使って、日本語のトークンをきめ細かくコントロールする (2)世界平和のためのLLM: 歴史の見方を(立場によって)多面化させる (3)「user-llm」をシステムとした、feedbackシステムの構築 D先生 : “プロジェクトがさらに複雑になっていますからね。今回も、前回につづいて「猫(の飼い方)データセット」の解説ですか?” QEU:FOUNDER : “まあ、今回の件は 「Huggingface」にデータセットをアップロード しました。・・・結局、言いたいことはこれだけなんだけどね(笑)。「facebookページを立ち上げました!」みたいで恐縮です。” D先生 : “あれ?例のdatabricks(15k、日本語版)についてもアップしたんですか?” QEU:FOUNDER : “ただし、内容がかなり変わっています。” D先生 : “もともと、このデータセットって15kのサイズでしたよね。なんで、内容を追加して16kにしたんですか?さらに、それを4分割にして・・・。” QEU:FOUNDER : “LLMについては、時間と共に知見が追加されていろいろな思いが交錯するが・・・。我々のfinetuning(FT)の第一歩としては、学習データを大きくしたくないんですよ。Jeremy Howard(JH)の話「↑」を見ても、「学習データを工夫するとFT学習が速くなる」ことがありそうだともいうし・・・。” C部長 : “学習データのサイズを小さくすると、学習が速くなる。そんなもん当たり前じゃないですか?” QEU:FOUNDER : “「学習データが少ないとFT処理が速い」ことは当たり前ですよね。さて・・・、ちょっと小生の話を聞いてください。JHは、とあるkaggleのコンペでLLMを学習したらこんな曲線を得て、びっくりしたらしいです。 1エポック(学習データを一通り処理した)ごとに、学習損失が一気に下がったらしい。 ” D先生 : “こんな曲線は見た...

QEUR23_LLMDSS9: LLM(大規模言語モデル)におけるフィードバック理論の検証

イメージ
~ 目指せ!ノーベル省! ~ QEU:FOUNDER : “それでは、前回の知見を活かして 「Finetuning(FT)の準備」 をしましょう。” QEU:FOUNDER : “もう一度いいますが、現在は「(FTの)準備段階」です。すなわち、 学習用のデータセットの生成 ですね。” By the end of this session , attendees will understand : - How to fine - tune LLMs like Llama - 2 - 7 b on a single GPU - Techniques like parameter efficient tuning and quantization , and how they can help - How to train a 7 b param model on a single T4 GPU ( QLoRA ) - How to deploy tuned models like Llama - 2 to production - Continued training with RLHF - How to use RAG to do question answering with trained LLMs This session will equip ML engineers to unlock the capabilities of LLMs like Llama - 2 on for their own projects . # --- このセッションを終えるまでに 、 参加者は次のことを理解するだろう : - シングルGPU上でLlama - 2 - 7 bのようなLLMを微調整する方法 - パラメータ効率チューニングや量子化などのテクニックと 、 それらがどのように役立つか - シングルT4 GPUで7b paramモデルをトレーニングする方法 ( QLoRA ) - Llama - 2 のようなチューニ...

QEUR23_LLMDSS8: 簡単にFinetune を使ってみる(Ludwig)

イメージ
~ 時代は群雄割拠! ~ QEU:FOUNDER : “前回の例の「Finetuning」のソルーションの採用は、我々としてはやめておきましょう。” D先生 : “どうして急にやめたの?” QEU:FOUNDER : “あの御大のチャンネルが、なぜか裏番組で違うソルーションを出していましたから・・・。この場合、 量子化「Quantization」の技術 を取り入れているので、ハードウェアに対する要求が緩いんです。なんと、 T4のGPUでもいける んですよ。” ``` By the end of this session , attendees will understand : - How to fine - tune LLMs like Llama - 2 - 7 b on a single GPU - Techniques like parameter efficient tuning and quantization , and how they can help - How to train a 7 b param model on a single T4 GPU ( QLoRA ) - How to deploy tuned models like Llama - 2 to production - Continued training with RLHF - How to use RAG to do question answering with trained LLMs This session will equip ML engineers to unlock the capabilities of LLMs like Llama - 2 on for their own projects . このセッションを終えるまでに 、 参加者は次のことを理解するだろう : - シングルGPU上でLlama - 2 - 7 bのようなLLMを微調整する方法 - パラメータ効率チューニングや量子化などのテクニックと 、 ...