QEUR23_LLMDSS7: LAMINIを使ってみる(BasicModelRunner)

~ これは便利そうなサービスだ! ~ QEU:FOUNDER : “例の「御大(レジェンド)」が、新しいコースを発表しましたよ。” D先生 : “この若い女性が Finetuneの会社の経営者 でしょ?この人の名前は、あちこちで聞いたことがあるなあ・・・。C国の女性か?” QEU:FOUNDER : “多分ね・・・。だから、「J国すごい」系の ご立派な方々 は見ないでください(笑)。小生も論文で何回も名前を見ました。彼女って、スタンフォード大の卒業でしょ?だから、Laminiなんですよ。” D先生 : “ スタンフォードといえば、・・・Alpaca・・・ 。そうか、なるほどね・・・。ちょっと、彼女の会社のページを見てみましょう。Laminiはスタートアップしたてのようで、Webページも、とてもシンプルです。” C部長 : “なぜ、LLM(大規模言語モデル)のFinetuneがビジネスになるんだろうか・・・?” QEU:FOUNDER : “まずは、C部長のその問いについて考えましょう。それでは、プログラムをドン!!” ! pip install lamini # ----- # from llama import LLMEngine , Type , Context class Test ( Type ): test_string : str = Context ( "just a test" ) #llm = LLMEngine(id="my_test") llm = LLMEngine ( id = "example_llm" , config = { "production.key" : "<YOUR TOKEN>" } ) test = Test ( test_string = "which mountain is the highest in the world?" ) str_out = llm ( test , output_type = Test ) print ( st...